Calcul Stochastique Avancé
Calcul Stochastique Avancé
Cyril Labbé
2
Université Paris Cité
Table des matières
I Mouvement Brownien 5
1 Processus à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Définition du mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3 Continuité des trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4 Quelques propriétés du mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . 14
5 Propriété de Markov forte du mouvement Brownien . . . . . . . . . . . . . . . . . . 16
6 Mesure de Wiener, mouvement Brownien multi-dimensionnel . . . . . . . . . . . . . 19
II Martingales 21
1 Martingales à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1) Inégalités maximales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2) Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3) Martingales fermées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3 Variation finie et martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3
Probabilités
4 Solutions faibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1) Un exemple d’EDS sans solution forte . . . . . . . . . . . . . . . . . . . . . . 64
2) Un résultat d’existence utilisant le théorème de Girsanov . . . . . . . . . . . 65
A Généralités 75
1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2 Caractérisation d’une loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
1) Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2) Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5 Modes de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
B Uniforme intégrabilité 81
4
Université Paris Cité
Chapitre I
Mouvement Brownien
X : Ω Ñ RR`
ω ÞÑ pXt pωq, t P R` q
De quelle tribu peut-on munir cet espace de trajectoires ? La réponse la plus simple est : la tribu
produit BpRqbR` , c’est-à-dire, la plus petite tribu sur RR` rendant mesurables les applications
coordonnées t ÞÑ xt pour tout t P R` . On notera qu’il s’agit également de la plus petite tribu
contenant les cylindres de dimension finie, c’est-à-dire, les sous-ensembles de RR` de la forme
ź
At , avec At P BpR` q , et #tt P R` : At ‰ Ru ă 8 .
tPR`
5
Probabilités
Lemme I.2
Si pXt , t P R` q est un processus stochastique, alors l’application X définie ci-dessus est mesurable
de pΩ, Fq dans pRR` , BpRqbR` q.
Démonstration Si l’on note C la classe des cylindres de dimension finie, alors X ´1 pCq Ă F
par définition d’un processus stochastique ; or σpCq n’est rien d’autre que la tribu produit et une
propriété générale de théorie de la mesure assure que X ´1 pσpCqq “ σpX ´1 pCqq et ainsi X est
mesurable. l
Ainsi un processus stochastique pXt , t P R` q peut être vu comme une variable aléatoire à valeurs
dans un espace de trajectoires. La loi P d’un tel processus stochastique est la mesure image de P
par l’application X. Comme la classe des cylindres est stable par intersection finie, un corollaire
du théorème de classe monotone assure que la loi d’un processus stochastique est entièrement
caractérisée par la donnée de PpCq pour tout C P C. Or si l’on note t1 , . . . , tn les indices pour
lesquels At ‰ R on observe que
Ainsi la loi d’un processus stochastique est entièrement caractérisée par les lois de ses margi-
nales fini-dimensionnelles : si Y est un autre processus stochastique et si pour tout n et tous
t1 , . . . , tn P R` les vecteurs pXt1 , . . . , Xtn q et pYt1 , . . . , Ytn q ont même loi, alors X et Y ont même
loi.
A ce stade, il nous faut formuler une observation subtile mais importante. Si pXt , t P R` q est un
processus stochastique, rien n’assure que les ensembles
soient mesurables en général. En effet, ces ensembles dépendent d’une collection non-dénombrables
d’indices t P R` , et ne peuvent pas s’écrire a priori comme union/intersection dénombrables
d’événements ne faisant intervenir que les marginales uni-dimensionnelles. Autrement dit, les en-
sembles
t@t P r0, 1s : xt ď 10u , tt ÞÑ xt est continuu ,
n’appartiennent pas à la tribu produit et rien ne dit que X reste mesurable si l’on munit l’ensemble
des trajectoires d’une tribu contenant ces ensembles.
Nous reviendrons sur la continuité des trajectoires d’un processus stochastique un peu plus loin
dans ce chapitre.
La tribu engendrée par un processus stochastique X, parfois notée σpXq, est la plus petite tribu
rendant mesurables les v.a. Xt , t P R` . On dira qu’un processus stochastique X est indépendant
d’une tribu G (sur Ω) si les tribus σpXq et G sont indépendantes. On peut vérifier que cela est vrai
si et seulement si toutes les marginales finies dimensionnelles de X sont indépendantes de la tribu G.
6
Université Paris Cité
Probabilités
Alors il existe une unique mesure de probabilité P sur la tribu produit de RR` telle que P|I “ PI
pour toute partie finie I Ă R` .
Proposition I.5
La loi d’un processus gaussien pXt , t P R` q est complétement caractérisée par la donnée de sa
fonction moyenne et de sa fonction de covariance :
Démonstration Il est bien connu que la loi d’un vecteur gaussien pXt1 , . . . , Xtn q est caractérisée
par son vecteur moyenne et sa matrice de covariance. Or ces deux quantités sont complétement
décrites par les fonctions introduites dans l’énoncé. Pour conclure, on rappelle que la loi d’un proces-
sus stochastique est complétement caractérisée par les lois de ses marginales finies-dimensionnelles.
l
Réciproquement, on se donne une fonction t ÞÑ mt de R` dans R ainsi qu’une fonction Γ : R` ˆ
R` Ñ R vérifiant :
n
ÿ
Γps, tq “ Γpt, sq , λi λj Γpti , tj q ě 0 , @n ě 1 , λi P R , ti P R` .
i,j“1
Quelques remarques s’imposent. Tout d’abord, un tel processus vérifie B0 “ 0 p.s. car toute variable
gaussienne de variance nulle est égale p.s. à sa moyenne. Par ailleurs, par la Proposition I.5 la loi
d’un processus vérifiant cette définition est unique. On pourra parler de la loi du mouvement
Brownien sans ambiguité.
L’existence d’un processus vérifiant la première condition a déjà été démontrée : en effet, il n’est
pas difficile de vérifier que la fonction de covariance de la définition est bien symétrique positive
et l’on peut alors appliquer le théorème d’extension de Kolmogorov comme expliqué à la section
précédente. En revanche la continuité d’un tel processus n’est pas acquise : ce faisant, l’existence
du mouvement Brownien reste à établir. Ce sera l’objet des deux sections suivantes.
Notons enfin qu’il existe des processus gaussiens qui ne sont pas continus. Par exemple, si X est
un processus gaussien centré de fonction de covariance Γps, tq “ minps, tq1ts,tPQ` u , alors X est
constant égal à 0 aux temps irrationnels et a une variance non-triviale aux temps rationnels : s’il
était continu, il serait constant égal à 0 partout.
Commençons par manipuler les propriétés présentées dans la définition.
Proposition I.7
Soit pBt , t P R` q un processus stochastique. Il y a équivalence entre :
(i) B est un processus gaussien centré de fonction de covariance CovpBs , Bt q “ minps, tq,
(ii) B vérifie :
(a) B0 “ 0 p.s.,
(b) pour tout n ě 2, pour tous 0 ď t1 ă t2 ă . . . ă tn , les variables aléatoires Bt1 , Bt2 ´ Bt1 ,
. . ., Btn ´ Btn´1 sont indépendantes,
(c) pour tous 0 ď s ď t, la variable Bt ´ Bs suit la loi gaussienne N p0, t ´ sq
Ainsi tout processus B dont les trajectoires sont continues et qui satisfait les propriétés (a), (b) et
(c) est un mouvement Brownien.
Démonstration Supposons que B vérifie (i). On a déjà vu plus haut que B0 “ 0 p.s, d’où le
point (a). Par ailleurs la variable Bt ´ Bs est gaussienne centrée de variance
ce qui prouve le point (c). En ce qui concerne les point (b), le vecteur pBt1 , Bt2 ´Bt1 , ¨ ¨ ¨ , Btn ´Btn´1 q
étant gaussien, il suffit de vérifier que sa matrice de covariance est diagonale (exercice).
Supposons que B vérifie (ii). Les points (b) et (c) assurent que pour tout n ě 2 et pour tous
0 ď t1 ă t2 ă . . . ă tn , les variables Bt1 , Bt2 ´Bt1 , . . ., Btn ´Btn´1 sont indépendantes et gaussiennes
centrées de variances t1 , t2 ´ t1 , ¨ ¨ ¨ , tn ´ tn´1 ; ces variables forment donc un vecteur gaussien de
matrice de covariance diagonale avec pour entrées sur la diagonale les variances précédentes. La
stabilité sous transformation linéaire des vecteurs gaussiens assure que pBt1 , ¨ ¨ ¨ , Btn q forme un
8
Université Paris Cité
Probabilités
On a donc prouvé que B est un processus gaussien centré de fonction de covariance CovpBs , Bt q “
minps, tq. l
Corollaire I.8
Soit B un mouvement Brownien. Pour tout n ě 1 et tous 0 ď t1 ă ¨ ¨ ¨ ă tn , la loi du vecteur
pBt1 , Bt2 , . . . , Btn q admet une densité sur Rn donnée par
˜ ¸
n
1 ÿ pxi ´ xi´1 q2
ppx1 , . . . , xn q “ a exp ´ ,
p2πqn{2 t1 pt2 ´ t1 q ¨ ¨ ¨ ptn ´ tn´1 q i“1
2pti ´ ti´1 q
avec x0 “ 0 et px1 , . . . , xn q P Rn .
Démonstration Comme on l’a vu dans la preuve précédente, le vecteur pBt1 , Bt2 ´ Bt1 , ¨ ¨ ¨ , Btn ´
Btn´1 q est composé de v.a. gaussiennes centrées indépendantes, il est donc gaussien et admet pour
densité
˜ ¸
n
1 ÿ pyi ´ yi´1 q2
ppy1 , . . . , yn q “ a exp ´ .
p2πqn{2 t1 pt2 ´ t1 q ¨ ¨ ¨ ptn ´ tn´1 q i“1
2pti ´ ti´1 q
@t P I, PpXt “ X̃t q “ 1 .
9
Université Paris Cité
Probabilités
On notera que si X̃ est une modification de X, alors les marginales de dimension finie des deux
processus coı̈ncident et ainsi les deux processus ont même loi. En revanche, il se peut que les
trajectoires des deux processus soient très différentes ! En effet, l’égalité de la définition ne fournit
aucun contrôle sur des collections non-dénombrables d’indices t P I. Pour cela, il faut imposer une
condition plus forte, ce qui donne lieu à la notion suivante.
Définition I.10
Soient deux processus stochastiques pXt , t P Iq et pX̃t , t P Iq indexés par un ensemble I Ă R, et
définis sur un même espace de probabilité. On dit que X et X̃ sont indistinguables si
Pp@t P I : Xt “ X̃t q “ 1 .
Remarque I.11
Une formulation plus rigoureuse est : On dit que X et X̃ sont indistinguables s’il existe un sous-
ensemble N Ă Ω qui est négligable, c’est-à-dire, N est inclus dans un événement de mesure nulle
et tel que
@ω P ΩzN, @t P I, Xt pωq “ X̃t pωq .
En supposant N négligeable, on relâche la contrainte de mesurabilité de l’ensemble des réalisations
où les deux processus diffèrent. Il s’agit là d’un point de détail.
Il est facile de vérifier que si deux processus sont indistinguables, alors l’un est une modification de
l’autre.
Théorème I.12 (Théorème de continuité de Kolmogorov )
Soit pXt , t P Iq un processus stochastique à valeurs réelles indicé par un intervalle borné I Ă R.
Supposons qu’il existe des réels q, , C ą 0 tels que pour tous s, t P I
Alors il existe une modification X̃ de X dont les trajectoires sont Hölderiennes d’exposant α pour
tout ω P Ω et tout α Ps0, {qr, c’est-à-dire, pour tout α Ps0, {qr il existe une variable aléatoire
positive Cα telle que pour tous s, t P I et tout ω P Ω
Dans la preuve, nous aurons besoin du lemme technique suivant. Soit D l’ensemble dénombrable
des nombres dyadiques de l’intervalle r0, 1s.
Lemme I.13
Soit f : r0, 1s Ñ R. On suppose qu’il existe α, K ą 0 tels que pour tout entier n ě 1 et tout
i P t1, . . . , 2n u
|f ppi ´ 1q2´n q ´ f pi2´n q| ď K2´nα .
Alors pour tous s, t P D
2K
|f psq ´ f ptq| ď |t ´ s|α .
1 ´ 2´α
10
Université Paris Cité
Probabilités
Démonstration Soient s, t P D tels que s ă t. On note p ě 0 l’unique entier tel que 2´p ď t ´ s ă
2´pp´1q . Nécessairement il existe k, `, m entiers tels que
ď 2K2 ´pα
p1 ´ 2 ´α ´1
q ď 2Kpt ´ sqα p1 ´ 2´α q´1 .
l
Présentons à présent la preuve du théorème. On va se restreindre aux indices de temps dyadiques
et montrer que le processus X, restreint aux dyadiques, est continu p.s. (cela fait sens car on ne
manipule qu’un nombre dénombrable de v.a.). Puis on étendra cette définition à tous les indices
de temps par densité des dyadiques et continuité. Il ne restera plus qu’à vérifier que l’objet ainsi
construit est bien une modification du processus de départ.
Démonstration [du Théorème de continuité de Kolmogorov] Sans perte de généralité, on peut
supposer que I “ r0, 1s. On fixe α Ps0, {qr. L’hypothèse de l’énoncé combinée à l’inégalité de
Markov assure que pour tout n ě 1 et pour tout i P t1, . . . , 2n u
Ainsi ˜ n
2
¸
ď
P t|Xpi´1q2´n ´ Xi2´n | ą 2 ´nα
u ď C2´n 2nαq .
i“1
Comme ´ αq ą 0 on obtient
˜ n
2
¸
ÿ ď
P t|Xpi´1q2´n ´ Xi2´n | ą 2´nα u ă8.
ně1 i“1
Le lemme de Borel-Cantelli assure donc que pour P-presque tout ω P Ω, il existe un entier n0 “
n0 pωq tel que
@n ě n0 , @i P t1, . . . , 2n u, |Xpi´1q2´n ´ Xi2´n | ď 2´nα .
11
Université Paris Cité
Probabilités
est finie presque sûrement. (En effet pour n ě n0 pωq cette quantité est majorée par 1, tandis que
le supremum sur n ă n0 porte sur un nombre fini de termes.)
Sur l’événement tKα ă 8u, qui est de probabilité 1, on déduit du lemme précédent que pour tous
s, t P D
|Xs pωq ´ Xt pωq| ď Cα pωq|t ´ s|α ,
avec Cα pωq “ 2Kα pωq{p1 ´ 2´α q. On a donc montré que sur l’événement tKα ă 8u, les trajectoires
de X restreintes à l’ensemble D sont α-Höldériennes. On peut alors poser sans ambiguité
#
limsÑt,sPD Xs pωq siKα pωq ă 8
X̃t pωq :“
0 siKα pωq “ 8 .
PpX̃t ‰ Xt q ď PpKα “ 8q “ 0 .
Supposons à présent que t R D. L’hypothèse du théorème assure que pour tout s P r0, 1s
12
Université Paris Cité
Probabilités
Construction du mouvement Brownien par Paul Lévy. Nous venons d’appliquer un théorème
général de la théorie des processus afin de construire le mouvement Brownien. Il se trouve que l’on
peut donner une construction beaucoup plus géométrique (et élégante !) du mouvement Brownien.
Celle-ci est due à Paul Lévy et s’appuie sur l’observation suivante
Lemme I.15
Pour tout 0 ď s ă t, le vecteur pBs , Bps`tq{2 , Bt q a même loi que le vecteur
Bs ` Bt
pBs , ` Y, Bt q ,
2
où Y est une variable aléatoire N p0, pt ´ sq{4q indépendante de Bs et Bt .
Démonstration Exercice. l
On se restreint à l’intervalle r0, 1s, on note Dn :“ tk2´n : k P t0, . . . , 2n uu et l’on construit de façon
pnq
récursive une suite de processus pBt , t P r0, 1sq tels que :
1. Les marginales de dimensions finies de B pnq restreint à Dn coı̈ncident avec celles du Brownien.
pnq
Plus précisément : les vecteurs pBt , t P Dn q et pBt , t P Dn q ont même loi.
pnq pmq
2. La procédure est consistente sur les dyadiques. Plus précisément : Bt “ Bt pour tout
t P Dn X Dm .
3. Chaque processus B pnq est affine entre deux points consécutifs de Dn . Plus précisément :
pnq pnq pnq
Bt “ 2n pt ´ k2´n qBpk`1q2´n ` 2n ppk ` 1q2´n ´ tqBk2´n , t P rk2´n , pk ` 1q2´n s .
On commence la procédure en se donnant une variable aléatoire X de loi N p0, 1q et l’on pose
p0q
Bt :“ tX .
On suppose avoir construit le processus B pnq pour un certain entier n ě 0. Pour construire B pn`1q il
suffit de définir correctement les marginales aux temps t P Dn`1 zDn puis d’interpoler linéairement
entre les points de Dn`1 . Pour ce faire, on se donne une collection de v.a. Xk,n , k P t0, . . . , 2n ´ 1u
i.i.d. N p0, 2´n {4q, indépendantes de toutes les v.a. utilisées jusqu’alors dans la construction. Pour
chaque k P t0, . . . , 2n ´ 1u, on pose
pn`1q pnq
Bp2k`1q2´pn`1q :“ Bp2k`1q2´pn`1q ` Xk,n ,
Nécessairement B est continu. Par construction, ses marginales de dimensions finies restreintes à
D coı̈ncident en loi avec celle du mouvement Brownien. Pour conclure, on utilise le lemme suivant.
13
Université Paris Cité
Probabilités
Lemme I.16
Soient pXt , t P r0, 1sq et pYt , t P r0, 1sq deux processus stochastiques dont les trajectoires sont
continues. Supposons qu’il existe un ensemble J Ă r0, 1s dense dans r0, 1s tel que les marginales de
dimensions finies de X et Y , restreintes à J, coı̈ncident en loi. Alors les deux processus pXt , t P r0, 1sq
et pYt , t P r0, 1sq ont même loi.
Démonstration Dans les trois cas, il est immédiat que les processus sont gaussiens centrés :
en effet, toute combinaison linéaire de marginales de dimension finie du processus ´B, resp. B λ ,
resp. B pT q , est combinaison linéaire de marginales de dimension finie du processus B, et ainsi, est
une gaussienne centrée. Par ailleurs, la continuité des trajectoires est préservée dans chaque cas. Il
reste à calculer la fonction de covariance dans chaque cas.
l
La propriété d’invariance par translation s’agrémente d’une propriété d’indépendance.
Proposition I.18 (Propriété de Markov simple)
pT q
Pour tout T ě 0, le processus B pT q , défini par Bt :“ BT `t ´ BT , est un mouvement Brownien
14
Université Paris Cité
Probabilités
indépendant de la tribu FT .
Démonstration Nous avons déjà montré que B pT q était un mouvement Brownien. Il nous faut
prouver qu’il est indépendant de FT . Rappelons que cela signifie que les tribus engendrées par
pBs , s P r0, T sq d’une part et par pBT `t ´BT , t P R` q d’autre part sont indépendantes. Pour prouver
cette assertion, il suffit de montrer que pour tous n, m ě 1 et tous 0 ď s1 ď s2 ď . . . ď sn ď T ,
0 ď t1 ď t2 ď . . . ď tm les vecteurs
sont indépendants. Comme ces deux vecteurs forment conjointement un vecteur gaussien dans
Rn`m , l’indépendance des deux vecteurs est équivalente aux identités
Démonstration Il suffit de montrer que F0` est indépendante de F8 . En effet, comme F0` Ă F8 ,
cela permet de déduire que F0` est indépendante d’elle-même, et est donc grossière.
Soient n ě 1, 0 ă t1 ă . . . ă tn et f : Rn Ñ R une fonction continue bornée. La continuité des
trajectoires combinée au Théorème de Convergence Dominée assure que pour tout A P F0`
Er1A f pBt1 , . . . , Btn qs “ lim PpAqErf pBt1 ´ B , . . . , Btn ´ B qs “ PpAqErf pBt1 , . . . , Btn qs .
Ñ0
On a donc montré que F0` est indépendante de σpBt , t ą 0q. Par ailleurs, B0 étant déterministe,
il est mesurable par rapport à n’importe quelle tribu et ainsi σpBt , t ą 0q “ σpBt , t ě 0q “ F8 , ce
qui achève la preuve. l
On déduit de cette dernière proposition des propriétés trajectorielles remarquables.
Corollaire I.20
On a presque sûrement
@ ą 0, sup Bs ą 0 , inf Bs ă 0 .
0ďsď 0ďsď
Par ailleurs pour tout a P R, si l’on note Ta :“ inftt ě 0 : Bt “ au alors presque sûrement
@a P R, Ta ă 8 .
15
Université Paris Cité
Probabilités
Démonstration Soit pn qn une suite de réels strictement positifs décroissant vers 0. On pose
č
A :“ t sup Bs ą 0u .
n 0ďsďn
L’événement A est F0` -mesurable et est une intersection d’événements décroissants, de sorte que
Or
Pp sup Bs ą 0q ě PpBn ą 0q “ 1{2 ,
0ďsďn
et ainsi la probabilité de A est supérieure ou égale à 1{2. Cet événement étant trivial, sa probabilité
est donc égale à 1. On a donc montré que presque sûrement @ ą 0, sup0ďsď Bs ą 0. L’assertion
concernant l’infimum est obtenue en remplaçant B par ´B.
On prouve à présent la finitude p.s. de tous les Ta . On commence par écrire
Ppsup Bs ą aq “ 1 .
sě0
On a donc montré que Ta ă 8 p.s. On en déduit que presque sûrement, pour tout a P p0, 8q X Q,
Ta ă 8. Or la continuité des trajectoires assure que pour tout 0 ă a ă b, Tb ă 8 ñ Ta ă 8. On a
donc montré que presque sûrement pour tout a ą 0, Ta ă 8.
En remplaçant B par ´B, on en déduit que cela reste vrai pour a ă 0.
On a donc montré que presque sûrement la trajectoire t ÞÑ Bt visite toutes les valeurs a P R.
Nécessairement lim suptÑ8 Bt “ `8 et lim inf tÑ8 Bt “ ´8. l
16
Université Paris Cité
Probabilités
l’événement tT ď tu P Ft .
En termes intuitifs, cette définition impose que l’information encodée dans la tribu Ft suffit à
déterminer si T s’est réalisé avant le temps t ou pas.
Ta :“ inftt ě 0 : Bt “ au .
suptt ď 1 : Bt “ 0u ,
ainsi que le premier temps où la trajectoire Brownienne atteint son maximum sur r0, 1s
FT :“ tA P F8 : @t ě 0, A X tT ď tu P Ft u .
(Nous reviendrons sur cette définition dans le chapitre suivant). On pourra vérifier en exercice
que FT est bien une tribu. On pourra aussi vérifier en exercice que les v.a. T et 1tT ă8u BT sont
FT -mesurables.
Théorème I.23 (Propriété de Markov forte)
Soit T un temps d’arrêt fini presque sûrement. On pose pour tout t ě 0
pT q
Bt :“ 1tT ă8u pBT `t ´ BT q .
17
Université Paris Cité
Probabilités
La propriété de Markov forte a de très nombreuses applications dans l’étude du mouvement Brow-
nien, nous en verrons certaines un peu plus loin. Notons qu’elle est fondamentalement due à
l’indépendance et à la stationarité des incréments du mouvement Brownien.
Le cas dénombrable déjà établi s’applique à Tn et B pTn q , et l’on obtient (en notant que si A P FT
alors A P FTn )
pT q pT q
Er1A f pBt1 n , . . . , Btmn qs “ PpAqErf pBt1 , . . . , Btm qs ,
de sorte que
pT q pT q
Er1A f pBt1 , . . . , Btm qs “ PpAqErf pBt1 , . . . , Btm qs .
l
Nous présentons une très jolie identité en loi portant sur le supremum courant du mouvement
Brownien
St :“ sup Bs , t ě 0 .
0ďsďt
La preuve de cette identité repose sur la propriété de Markov forte du mouvement Brownien.
18
Université Paris Cité
Probabilités
PpSt ě a, Bt ď bq “ PpBt ě 2a ´ bq .
Le Théorème I.23 assure que B pTa q est indépendant de Ta . Comme B pTa q a même loi que ´B pTa q
on en déduit que pTa , B pTa q q a même loi que pTa , ´B pTa q q et ainsi
pT q
a a pT q
PpTa ď t, Bt´T a
ď b´aq “ PpTa ď t, ´Bt´T a
ď b´aq “ PpTa ď t, BTa ´Bt ď b´aq “ PpTa ď t, Bt ě 2a´bq .
Comme 2a ´ b ě a, si Bt ě 2a ´ b alors nécessairement Ta ď t et ainsi
PpSt ě a, Bt ď bq “ PpBt ě 2a ´ bq .
Pour prouver la deuxième assertion, on écrit
PpSt ě aq “ PpSt ě a, Bt ď aq ` PpSt ě a, Bt ą aq .
On note que si Bt ą a alors nécessairement St ě a. En utilisant le principe de réflexion ainsi que
cette dernière observation on obtient
PpSt ě aq “ PpBt ě aq ` PpBt ą aq “ 2PpBt ě aq “ Pp|Bt | ě aq .
l
On pourra se convaincre que cette distance métrise la topologie de la convergence uniforme sur
tout compact de R` . On note alors C la tribu Borélienne associée à cet espace métrique. Il est alors
possible de montrer le résultat suivant.
19
Université Paris Cité
Probabilités
Lemme I.25
La tribu produit sur CpR` , Rq coı̈ncide avec la tribu C.
La loi W du mouvement Brownien sur pCpR` , Rq, Cq est appelée mesure de Wiener.
20
Université Paris Cité
Chapitre II
Martingales
Si M est une martingale alors f pErMt | Fs sq “ f pMs q et l’on peut conclure. Si M est une sous-
martingale, la croissance de f assure que f pErMt | Fs sq ě f pMs q et l’on peut conclure. l
On rappelle qu’une variable aléatoire T : Ω Ñ N Y t`8u est un temps d’arrêt si pour tout t P R` ,
tT ď tu P Ft . On notera que si T est un temps d’arrêt, alors tT ą tu “ tT ď tuA P Ft et
tT “ tu “ limn Ó tT ď tu X tT ď t ´ 1{nuA P Ft .
21
Probabilités
Définition II.3
Soit T un temps d’arrêt. On appelle tribu du passé avant T la collection FT de tous les événements
A P F tels que pour tout t P R` , A X tT ď tu P Ft .
où chaque Atn P Ftn , et l’on peut se convaincre qu’il s’agit là du passé avant T .
Lorsque T est un temps d’arrêt quelconque, il n’existe pas de description aussi simple de FT .
Cependant, si T ă 8, on peut prouver que A P FT si et seulement si il existe un processus adapté
X à trajectoires continues à droite ainsi qu’un Borélien B tels que A “ tXT P Bu, voir [cn11, Chap
5 Th 1.14].
Lemme II.5
Soient S, T deux temps d’arrêt. Alors S ^ T est encore un temps d’arrêt et FS^T “ FS X FT .
Démonstration Exercice ! l
A ce stade, notons une difficulté technique propre aux processus à temps continu. Soit pXt , t P R` q
un processus stochastique adapté à la filtration pFt , t P R` q. Soit T un temps d’arrêt. Il est naturel
de vouloir manipuler l’application
XT : ω ÞÑ XT pωq pωq
Si T prend ses valeurs dans un ensemble dénombrable ptn qn alors XT dépend de façon explicite des
v.a. pXtn qn et l’on peut montrer qu’il est mesurable. Si T est quelconque, la mesurabilité n’est pas
forcément vraie ! En revanche, on a le résultat suivant :
Lemme II.6
Soit X un processus stochastique à trajectoires continues et soit T un temps d’arrêt fini p.s. Alors
XT est une v.a. FT mesurable.
Si Xt admet une limite p.s. quand t Ñ 8, notée X8 , alors XT est une v.a. FT mesurable sans
condition de finitude sur T .
Remarque II.7
On notera que sur l’événement tT “ 8u, la définition de XT n’a de sens que si Xt admet une limite
quand t Ñ 8. Cependant, si T ă 8 p.s., l’événement tT “ 8u est de mesure nulle et l’on peut y
définir XT de façon arbitraire.
Démonstration On suppose que T ă 8 p.s. On a par continuité des trajectoires que p.s.
8
ÿ
XT “ lim 1k2´n ďT ăpk`1q2´n Xk2´n .
nÑ8
k“0
22
Université Paris Cité
Probabilités
On note que 1k2´n ďT ăpk`1q2´n Xk2´n “ 1k2´n ďT Xk2´n 1T ăpk`1q2´n . La v.a. 1T ăpk`1q2´n est bien FT
mesurable. Montrons alors que chaque 1k2´n ďT Xk2´n est FT mesurable. Cela revient à montrer que
pour tout s P R` , 1sďT Xs est FT mesurable. Soit B un Borélien de R ne contenant pas 0. Pour
tout t P R` on a
#
H si t ă s
t1sďT Xs P Bu X tT ď tu “
tXs P Bu X ts ď T ď tu si s ď t
qui est Ft mesurable dans les deux cas (on notera que ts ď T ď tu “ tT ă suA X tT ď tu). Si B est
un Borélien de R contenant 0 alors
´ ¯
A
t1sďT Xs P Bu X tT ď tu “ tT ď tuz t1sďT Xs P B u X tT ď tu .
l
Dans la suite, şon manipulera toujours des martingales à trajectoires continues de sorte que les
t
quantités MT , 0 Ms ds ou sup0ďsďt Ms seront bien mesurables.
Les martingales sont des objets qui apparaissent dans de nombreux contextes, et il est utile d’établir
des résultats généraux les concernant. Il se trouve que les résultats que nous allons établir sont
tout à fait analogues à ceux connus à temps discret : ce n’est pas étonnant car si M est une
martingale à temps continu alors pour toute suite croissante ptn qn , le processus pMtn , n P Nq est
une martingale à temps discret adapté à la filtration pFtn , n P Nq. Cette “projection” va nous
permettre d’établir certains résultats (comme les inégalités maximales) en utilisant leurs analogues
discrets et en passant à la limite. Cependant, certains énoncés ne pourront pas être obtenus de façon
élémentaire à partir du cas discret, et nécessiteront des détours techniques conséquents : on notera
en particulier que le fait qu’une martingale arrêtée est encore une martingale est délicat à établir
dans le continu (ce sera notre dernier résultat !) tandis qu’il s’agissait d’une propriété élémentaire
dans le discret.
1) Inégalités maximales
Proposition II.8
— Si M est une sous-martingale à trajectoires continues alors pour tout a ą 0 et pour tout
t P R`
aPp sup Ms ą aq ď ErMt` s ,
0ďsďt
— Si M est une sur-martingale à trajectoires continues alors pour tout a ą 0 et pour tout t P R`
23
Université Paris Cité
Probabilités
pnq pnq
On peut choisir les ptk , 0 ď k ď nq de sorte que la suite d’ensembles ttk ; 0 ď k ď nu, n ě 1 soit
croissante et converge vers r0, ts X Q. Par la continuité croissante des probabilités, on obtient
Pp sup Ms ą aq “ Pp sup Ms ą aq ,
sPr0,tsXQ sPr0,ts
Démonstration On suit la même démarche que dans la preuve précédente : si l’on restreint le
supremum à un ensemble fini de marginales, l’inégalité est vraie (cas discret). Par croissance et
continuité, on peut en déduire l’inégalité recherchée. l
L’inégalité maximale de Doob a une conséquence tout à fait remarquable.
Corollaire II.10
Soit M une martingale à trajectoires continues et p ą 1. Si M est bornée dans Lp , c’est-à-dire,
supt Er|Mt |p s ă 8 alors la famille de v.a. |Mt |p , t P R` est uniformément intégrable.
Démonstration On pose C :“ supt Er|Mt |p s. L’inégalité maximale de Doob assure que pour tout
tě0 ´ p ¯p
˚ p
ErpMt q s ď C .
p´1
Or Mt˚ est une fonction croissante de t et ainsi admet une limite p.s. que l’on note M8
˚ “
2) Convergence
Nous allons admettre le résultat suivant, qui est tout à fait analogue à celui vu dans le discret
(Théorème C.7).
Théorème II.11
Soit M une martingale (resp. sous-martingale, resp. sur-martingale) à trajectoires continues, et
bornée dans L1 , c’est-à-dire, telle que suptPR` Er|Mt |s ă 8. Alors quand t Ñ 8, Mt converge
24
Université Paris Cité
Probabilités
3) Martingales fermées
Définition II.12
On dit qu’une martingale M est fermée s’il existe une v.a. X P L1 telle que pour tout t P R`
Mt “ ErX | Ft s .
Théorème II.13
Soit M une martingale à trajectoires continues. Il y a équivalence entre :
(i) M est fermée
(ii) M est uniformément intégrable.
(iii) M converge p.s. et dans L1 vers une variable aléatoire M8 intégrable.
Si l’une des trois conditions est vérifiée, alors nécessairement M est fermée par sa limite M8 .
ErMt 1A s “ ErMt`s 1A s .
ErMt`s 1A s Ñ ErM8 1A s ,
MS “ ErMT | FS s .
25
Université Paris Cité
Probabilités
k“0
2n tk2 ăT ďpk`1q2 u
Il s’agit d’une suite de temps d’arrêt qui converge de façon décroissante vers T .
Pour tout n ě 1, la martingale discrète pMk2´n , k P Nq est adaptée à la filtration pFk2´n , k P Nq, et
est fermée par M8 . Par ailleurs T pnq est un temps d’arrêt dans cette filtration. Le théorème d’arrêt
dans le cas discret assure que presque sûrement
Une conséquence de cette identité est que la collection de v.a. pMT pnq , n ě 1q est uniformément
intégrable.
Soit A P FT . Comme T ď T pnq , on a A P FT pnq et ainsi
La suite de v.a. 1A MT pnq , n ě 1 converge p.s. vers 1A MT et est u.i. : par le Théorème B.6 on en
déduit que la convergence a aussi lieu dans L1 et ainsi
Er1A MT s “ Er1A M8 s .
Comme le Lemme 1 assure que MT est FT mesurable, ceci assure que MT “ ErM8 | FT s et conclut
la preuve. l
Ce résultat (difficile) a plusieurs conséquences (a priori simples).
Corollaire II.15 (Théorème d’arrêt borné)
Soit M une martingale. Soient S ď T deux temps d’arrêt bornés, c’est-à-dire, tels qu’il existe t0 ě 0
(déterministe !) tel que 0 ď S ď T ď t0 p.s. Alors MS , MT sont intégrables et presque sûrement
ErMT | FS s “ MS .
26
Université Paris Cité
Probabilités
Corollaire II.16
Soient M une martingale à trajectoires continues et fermée, et T un temps d’arrêt. On pose MtT :“
MT ^t pour tout t P R` . Alors M T est une martingale (dans la filtration pFt qtPR` ) fermée par MT .
Si l’on montre que cela reste vrai en remplaçant Ft^T par Ft alors on en déduira que pMt^T , t ě 0q
est fermée par MT et que c’est une martingale dans la filtration pFt qtPR` , ce qui conclura la preuve.
On sait par le Lemme 1 que MT 1T ă8 est FT mesurable. Vérifions que MT 1T ďt est Ft^T mesurable.
La FT mesurabilité est immédiate. Concernant la Ft mesurabilité, on voit que pour tout Borélien
B ne contenant pas 0, on a
tMT 1T ďt P Bu “ tMT P Bu X tT ď tu P Ft ,
Dans les deux cas, cet événement est Fs mesurable et ainsi A X tT ą tu P FT . On a donc montré
que A X tT ą tu P Ft^T . On peut alors écrire
27
Université Paris Cité
Probabilités
2 Martingales locales
Il est pratique de relâcher certaines hypothèses dans la définition d’une martingale (nous en verrons
de nombreuses applications lorsque nous introduirons l’intégrale stochastique).
Définition II.18
On appelle martingale locale issue de 0 tout processus stochastique M “ pMt , t P R` q adapté, à
trajectoires continues, qui vérifie M0 “ 0 p.s. et pour lequel il existe une suite croissante de temps
d’arrêt pTn , n P Nq telle que Tn Ò 8 et M Tn est une martingale.
Plus généralement, on appelle martingale locale tout processus stochastique M “ pMt , t P R` q tel
que M0 est F0 -mesurable et Nt “ Mt ´ M0 , t P R` est une martingale locale issue de 0.
On dira qu’une suite pTn , n P Nq de temps d’arrêt réduit M si p.s. Tn Ò 8 et M Tn ´ M0 est une
martingale.
Proposition II.19
Remarque II.20
On peut se demander si l’hypothèse de domination s’écrit : p.s., pour tous t ě 0, |Mt | ď Z ou
alors : pour tout t ě 0, p.s. |Mt | ď Z. En fait, la continuité des trajectoires assure que ces deux
assertions sont équivalentes.
Démonstration
1. Par le Corollaire II.17, n’importe quelle suite croissante de temps d’arrêt qui tend p.s. vers
`8 réduit M .
2. Soit Tn une suite de temps d’arrêt qui réduit M . Le Corollaire II.17 appliqué à la martingale
M Tn ´ M0 assure que pM Tn ´ M0 qT est encore une martingale. Or pour tout t ě 0, pM Tn ´
M0 qTt “ MTn ^T ^t ´ M0 “ pM T ´ M0 qTt n ce qui assure que pM T ´ M0 qTn est une martingale.
On en déduit que M T ´ M0 est une martingale locale.
3. Soit pTn qnPN une suite qui réduit M . Alors
Ms^Tn ´ M0 “ ErMt^Tn ´ M0 | Fs s .
Par hypothèse de domination, on peut ajouter M0 aux deux membres de l’inégalité et obtenir
Ms^Tn “ ErMt^Tn | Fs s .
Par continuité des trajectoires et domination, on peut passer à la limite sur n et obtenir
Ms “ ErMt | Fs s .
28
Université Paris Cité
Probabilités
4. Il suffit de prendre Tn :“ inftt ě 0 : |Mt | ě nu car alors M Tn est bornée par n et l’on peut
appliquer le point précédent.
l
Remarque II.21
On pourrait penser que si une martingale locale est intégrable à tout temps, alors il s’agit d’une
vraie martingale. Il s’avère que cela est faux, voir par exemple [RY99, Exercise V.2.13].
Il est facile de vérifier que V pf, s, tq ` V pf, t, uq “ V pf, s, uq pour tous triplets s ă t ă u. Par
ailleurs toute fonction continûment différentiable vérifie
żt
V pf, s, tq “ |f 1 prq|dr ă 8 ,
s
et toute fonction monotone vérifie
V pf, s, tq “ |f ptq ´ f psq| .
La fonction f : t ÞÑ 1r1,8r est à variation finie et V pf, 0, 8q “ 1. En revanche, la fonction t ÞÑ 1Q ptq
est à variation infinie. Enfin la fonction
r0, 1s Q t Ñ t sinp1{tq ,
est continue mais sa variation sur l’intervalle r0, 1s est infinie. Cela est laissé en exercice (indication :
1
considérer les temps t “ p2k`1qπ{2 pour k P N).
Proposition II.22
Une fonction f : R` Ñ R est à variation finie si et seulement si c’est la différence de deux fonctions
croissantes.
Démonstration Si f “ g ´ h avec g, h croissantes alors
ÿ ÿ ÿ
|f ptk`1 q ´ f ptk q| ď |gptk`1 q ´ gptk q| ` |hptk`1 q ´ hptk q| ,
k k k
de sorte que V pf, s, tq ď V pg, s, tq ` V ph, s, tq et ainsi f est à variation finie. Réciproquement, si f
est à variation finie alors les fonctions g “ V pf, 0, tq et h “ V pf, 0, tq ´ f ptq sont croissantes. En
effet V pf, 0, t ` sq ´ V pf, 0, tq “ V pf, t, t ` sq ě 0, et V pf, 0, t ` sq ´ V pf, 0, tq ´ pf pt ` sq ´ f ptqq “
V pf, t, t ` sq ´ pf pt ` sq ´ f ptqq ě 0 car tt, t ` su forme une subdivision de l’intervalle rt, t ` ss. l
Il se trouve que le Brownien n’est pas à variation finie.
29
Université Paris Cité
Probabilités
Lemme II.23
Presque sûrement, pour tous 0 ď s ă t, V pB, s, tq “ 8.
n´1
ÿ
|Bptk`1 q ´ Bptk q| ,
k“0
Le théorème central limite assure que le second terme converge en loi vers une gaussienne, tandis
que le premier terme converge vers `8. Ainsi la somme converge en probabilité vers `8 quand
n Ñ 8, ce qui implique que V pB, s, tq “ 8 p.s. l
En fait, il n’existe pas de martingale non-triviale à trajectoires continues qui soit à variation finie.
Théorème II.24
Soit M une martingale locale issue de 0. Si M est un processus à variation finie alors presque
sûrement pour tout t P R` , Mt “ 0.
Remarque II.25
On peut s’interroger sur l’importance de la continuité des trajectoires dans un tel résultat. Il se
trouve qu’elle est cruciale. En effet, si N est un processus de Poisson d’intensité λ ą 0 alors Nt ´ λt
est une martingale. Par ailleurs, c’est un processus à variation finie car c’est la différence de deux
processus croissants : Nt et λt.
τn :“ inftt ě 0 : V pM, 0, tq ě nu .
30
Université Paris Cité
Probabilités
ppq ppq
On se donne alors une suite (indicée par p ě 1) de subdivisions 0 “ t0 ă . . . ă tkp “ t de pas
tendant vers 0 et l’on calcule
kp
ÿ kp
ÿ kp
ÿ
ErNt2 s “ ErN 2ppq ´ N 2ppq s “ ErpNtppq ´ Ntppq q2 s ď Erp sup |Ntppq ´ Ntppq |q |Ntppq ´ Ntppq |s
ti ti´1 i i´1 1ďiďkp i i´1 i i´1
i“1 i“1 i“1
ď n Er sup |Ntppq ´ Ntppq |s .
1ďiďkp i i´1
Comme le pas tend de la subdivision tend vers 0, la continuité des trajectoires assure que sup1ďiďk pNtppq ´
i
Ntppq q Ñ 0 p.s. quand p Ñ 8. Le caractère borné de N permet alors d’appliquer le théorème de
i´1
convergence dominée pour déduire que
4 Variation quadratique
Dans la section précédente, nous avons vu que la variation d’une martingale non-triviale est toujours
infinie. Nous allons voir qu’en revanche toute martingale admet une variation quadratique finie.
Théorème II.26
Soit M une martingale locale. Il existe un unique processus à trajectoires continues et croissantes,
noté pxM, M yt , t ě 0q et appelé variation quadratique de M , tel que Mt2 ´ xM, M yt soit une
martingale locale et xM, M y0 “ 0. De plus, pour tout t ą 0 et pour toute suite indicée par n ě 1
de subdivisions emboı̂tées 0 “ tn0 ă tn1 ă . . . ă tnpn “ t de l’intervalle r0, ts dont le pas tend vers 0
quand n Ñ 8, la convergence suivante a lieu en probabilité
pn
ÿ
xM, M yt “ lim pMtni ´ Mtni´1 q2 . (II.1)
nÑ8
i“1
Calculons la variation quadratique du mouvement Brownien. On commence par noter que les
v.a. pBtni ´ Btni´1 q2 sont indépendantes de moyenne tni ´ tni´1 et de variance 2ptni ´ tni´1 q2 . Ainsi
pn
”ÿ pn
ı ÿ
2
E pBti ´ Bti´1 q “
n n tni ´ tni´1 “ t ,
i“1 i“1
et
pn
”´ ÿ ¯2 ı pn
´ÿ ¯ ÿpn ´ ¯ ÿpn
E pBtni ´ Btni´1 q2 ´ t “ Var pBtni ´ Btni´1 q2 “ Var pBtni ´ Btni´1 q2 “ 2ptni ´ tni´1 q2
i“1 i“1 i“1 i“1
´ ¯
ď2 supptni ´ tni´1 q t,
i
31
Université Paris Cité
Probabilités
et cette quantité tend vers 0 quand le pas de la subdivision tend vers 0. Ainsi xB, Byt “ t et la
convergence (II.1) a lieu dans L2 .
Démonstration [Démonstration du Théorème II.26]
Unicité. Si A et A1 sont deux processus croissants tels que Mt2 ´ At et Mt2 ´ A1t sont des martingales
locales, alors At ´ A1t est une martingale locale de variation finie. Par le Théorème II.24, c’est un
processus constant égal à A0 “ A10 “ 0.
Existence. Il s’agit d’un résultat difficile : on renvoie vers [LG13, Th 4.2]. l
Remarque II.27
On peut vérifier que si M est une martingale locale et T un temps d’arrêt alors xM T , M T yt “
xM, M yt^T pour tout t P R` .
La variation quadratique d’une martingale locale apporte de nombreuses informations sur celle-ci.
Un premier résultat dans ce sens est le suivant.
Proposition II.28
Soit M une martingale locale issue de 0. Il y a équivalence entre :
1. M est une vraie martingale bornée dans L2 ,
2. ErxM, M y8 s ă 8.
Sous ces hypothèses, Mt2 ´ xM, M yt est une martingale uniformément intégrable.
Démonstration On suppose que M est une vraie martingale bornée dans L2 , et ainsi, est uni-
formément intégrable. On sait alors que Mt converge p.s. et dans L1 vers une variable M8 . Par
ailleurs, une conséquence de l’inégalité de Doob, voir le Corollaire II.10, assure que
Ersup Mt2 s ă 8 .
tě0
Combiné à la Proposition B.4, ceci assure que pMt2 , t ě 0q est également uniformément intégrable
de sorte que Mt converge aussi dans L2 vers M8 .
On introduit alors le temps d’arrêt
Sn :“ inftt ě 0 : xM, M yt ě nu ,
et l’on a xM, M yt^Sn ď n. Ainsi la martingale locale Mt^S 2 ´ xM, M yt^Sn est dominée par la
n
2
v.a. suptě0 Mt ` n qui est intégrable. La Proposition II.19 3. assure qu’il s’agit alors d’une vraie
martingale (issue de 0) de sorte que
2
ErMt^Sn
´ xM, M yt^Sn s “ 0 .
En faisant tendre t vers l’infini, et en appliquant le théorème de convergence dominée pour le terme
de gauche et le théorème de convergence monotone pour celui de droite, on obtient
32
Université Paris Cité
Probabilités
On a donc montré que ErxM, M y8 s ă 8. En outre, la martingale locale Mt2 ´ xM, M yt est dominée
par la v.a. intégrable suptě0 Mt2 ` xM, M y8 et il s’agit ainsi d’une vraie martingale uniformément
intégrable.
On suppose que ErxM, M y8 s ă 8. On introduit le temps d’arrêt Tn :“ inftt ě 0 : |Mt | ě nu de
sorte que M Tn est une vraie martingale bornée (Proposition II.19 3.). La martingale locale Mt^T
2
n
´
2
xM, M yt^Tn est dominée par la v.a. intégrable n ` xM, M y8 , c’est donc une vraie martingale
uniformément intégrable (issue de 0). On en déduit que
2
ErMt^Tn
s “ ErxM, M yt^Tn s ď ErxM, M y8 s ă 8 .
Ainsi la Proposition II.19 3. assure que M est une vraie martingale, qui est de plus bornée dans
L2 . l
On peut aussi donner une version plus faible de cette équivalence. On dit que M est de carré
intégrable si ErMt2 s ă 8 pour tout t ě 0. On notera que cela n’implique pas que M est bornée
dans L2 . En revanche, le Lemme II.2 assure que si M est une martingale de carré intégrable alors
M 2 est une sous-martingale et l’on a supsPr0,ts ErMs2 s ď ErMt2 s ă 8. Ainsi toute martingale de
carré intégrable est localement bornée dans L2 , c’est-à-dire, supsPr0,ts ErMs2 s ă 8.
Corollaire II.29
Soit M une martingale locale issue de 0. Il y a équivalence entre :
1. M est une vraie martingale de carré intégrable,
2. ErxM, M yt s ă 8 pour tout t ě 0.
Sous ces hypothèses, Mt2 ´ xM, M yt est une martingale.
Démonstration Soit M une martingale locale issue de 0. Pour tout a ą 0, M a est encore une
martingale locale. Le résultat précédent appliqué à M a assure qu’il y a équivalence entre
1. M a est une vraie martingale bornée dans L2 ,
2. ErxM a , M a y8 s ă 8.
En utilisant la définition de M a et le commentaire précédant l’énoncé du corollaire, on peut réécrire
cette équivalence sous la forme :
1. M est une vraie martingale sur r0, as et ErMt2 s ă 8 pour tout t P r0, as,
2. ErxM, M yt s ă 8 pour tout t P r0, as.
33
Université Paris Cité
Probabilités
Comme a est arbitraire cela suffit à conclure. Par ailleurs, si l’une de ces conditions est remplie
2 ´ xM, M y
alors Mt^a t^a est une vraie martingale : là encore, comme a est arbitraire, on en déduit
2
que Mt ´ xM, M yt est une martingale. l
Pour finir, on introduit le crochet de deux martingales locales M, N en posant
1´ ¯
xM, N yt :“ xM ` N, M ` N yt ´ xM, M yt ´ xN, N yt , t P R` .
2
Il est possible de montrer que ce processus est l’unique processus à variation finie issu de 0 tel que
Mt Nt ´xM, N yt est une martingale locale. Il est aussi possible d’établir un résultat d’approximation
similaire à ce qui est énoncé dans le Théorème II.26.
34
Université Paris Cité
Chapitre III
où σ : R Ñ R est une fonction donnée. Pour donner un sens à la solution d’une telle équation, il
est nécessaire de développer une théorie de l’intégration contre le mouvement Brownien.
Une approche naturelle serait d’approximer l’intégrale par des sommes de Riemann. Par exemple,
pour donner un sens à
żt
Bs dBs ,
0
n´1
ÿ
B̃i,n pBtpnq ´ Btpnq q ,
i`1 i
i“0
pnq pnq
où B̃i,n est une valeur prise par B sur l’intervalle rti , ti`1 s. L’idée serait alors de définir l’intégrale
comme la limite (si elle existe !) de la suite des sommes finies.
Dans la théorie de l’intégration de Riemann, la valeur que l’on choisit sur chaque intervalle de la
subdivision (ici B̃i,n ) n’a pas d’impact sur la convergence, ni sur la limite, de la suite des sommes
finies.
Il se trouve que la convergence de cette suite de sommes finies est très instable car elle dépend
fortement du choix de B̃i,n . Illustrons cela par un calcul simple. Considérons deux approximations
pnq pnq
distinctes : la première considère la valeur au début de l’intervalle rti , ti`1 s
n´1
ÿ
pnq
It “ Btpnq pBtpnq ´ Btpnq q ,
i i`1 i
i“0
35
Probabilités
pnq pnq
alors que la seconde choisit la valeur à la fin de l’intervalle rti , ti`1 s
n´1
ÿ
pnq
St “ Btpnq pBtpnq ´ Btpnq q .
i`1 i`1 i
i“0
Or le Théorème II.26 montre que cette dernière quantité tend en probabilité vers la variation
quadratique du mouvement Brownien au temps t, c’est-à-dire t. Autrement dit les deux suites de
sommes finies ne peuvent avoir la même limite !
Cet exemple est très instructif : il illustre non seulement l’instabilité des schémas d’approximation
de l’intégrale contre le mouvement Brownien, et il suggère également que la source des difficultés
est la variation quadratique du mouvement Brownien. On rappelle que la théorie de l’intégration
contre des fonctions à variation finie est un cas particulier de la théorie générale de l’intégration
(de Lebesgue). Si f est à variation finie, alors µpdsq “ df psq est une mesure (signée)
ş contre laquelle
on peut intégrer toute fonction mesurable bornée ; en particulier, l’intégrale r0,ts f psqdf psq est bien
définie, et peut être obtenue par approximation.
On a vu que la trajectoire Brownienne est à variation infinie p.s., ainsi il n’est pas possible d’appli-
quer la théorie de la mesure pour définir l’intégrale contre le Brownien. Dans ce chapitre nous allons
présenter une théorie de l’intégration contre le Brownien due à Itô (1948), ainsi que sa généralisation
contre toute martingale à trajectoires continues due à Kunita et Watanabe (1967). Nous allons voir
que la construction par Itô consiste à approximer l’intégrale en choisissant la valeur de l’intégrand
pnq
au début de chaque intervalle de la subdivision : dans l’exemple ci-dessus, il s’agit donc de It .
On notera que de telles approximations préservent la propriété de martingale du Brownien : en
pnq
particulier, It est une martingale (dont on peut calculer explicitement la variation quadratique !).
Cela jouera un rôle prépondérant dans la construction de l’intégrale.
où p est un entier positif ou nul, 0 “ t0 ă t1 ă . . . ă tp est une collection de réels positifs et chaque
H piq est une v.a. Fti -mesurable bornée.
Remarque III.1
On impose ici que chaque intervalle sti , ti`1 s est fermé à droite et ouvert à gauche. Il se trouve
36
Université Paris Cité
Probabilités
que ce choix n’a aucun impact sur la suite de la construction : on pourrait considérer par exemple
l’intervalle ouvert à droite et fermé à gauche sans changer les résultats à venir. Cela est dû à la
continuité de la trajectoire Brownienne.
Pour définir l’intégrale de H contre B restreinte à chaque intervalle r0, ts, on commence par noter
que pour tout t P R` , H1r0,ts est encore un processus élémentaire , et que
p´1
ÿ
IpH1r0,ts q “ H piq pωqpBti`1 ^t ´ Bti ^t qpωq .
i“0
It pHq :“ IpH1r0,ts q , t P R` .
Il est facile de voir que le processus pIt pHq, t P R` q est constant égal à IpHq à partir du temps tp .
Lemme III.2
Pour tout processus élémentaire H, le processus pIt pHq, t P R` q est une martingale continue issue
de 0, bornée dans L2 et de variation quadratique
żt
xI¨ pHq, I¨ pHqyt “ Hs2 ds .
0
Démonstration Tout d’abord, il n’est pas difficile de vérifier que It pHq est Ft -mesurable pour
tout t P R` et intégrable (il s’agit d’une somme finie de v.a. bornées). Vérifions la propriété de
martingale. Pour tout s P R` , soit j P t0, . . . , pu l’unique entier tel que tj ď s ă tj`1 (avec pour
convention que tp`1 “ 8). On écrit alors pour tout t ě s
j´1
ÿ p
ÿ
It pHq “ H piq pBti`1 ´ Bti q ` H pjq pBtj`1 ^t ´ Btj q ` H piq pBti`1 ^t ´ Bti ^t q .
i“0 i“j`1
Le premier terme est Ftj Ă Fs -mesurable. Le second terme est la somme du terme Fs -mesurable
H pjq pBs ´ Btj q et de H pjq pBtj`1 ^t ´ Bs q dont l’espérance conditionnelle vaut
37
Université Paris Cité
Probabilités
Comme H est un processus élémentaire, il existe une constante C ą 0 telle que pour tout i
ErpH piq q2 pBti`1 ^t ´ Bti ^t q2 s1{2 ď CErpBti`1 ^t ´ Bti ^t q2 s1{2 ď Cpti`1 ´ ti q1{2 ,
de sorte que It pHq est bornée dans L2 . La Proposition II.28 et le Théorème II.26 assurent alors que
xI¨ pHq, I¨ pHqyt est l’unique processus
şt 2 adapté et croissant tel que It pHq2 ´ xI¨ pHq, I¨ pHqyt est une
(vraie) martingale. Comme 0 Hs ds est adapté et croissant, il nous suffit de vérifier que It pHq2 ´
şt 2
0 Hs ds est une martingale. On écrit alors
p´1
ÿ p´1
ÿ
2 piq 2 2
It pHq “ pH q pBti`1 ^t ´ Bti ^t q ` 2 H piq H pjq pBti`1 ^t ´ Bti ^t qpBtj`1 ^t ´ Btj ^t q .
i“0 iăj:i,j“0
Donnons les détails du calcul du premier terme. En reprenant les notations du début de la preuve,
on obtient aisément que
p´1
ÿ j´1
ÿ
Er pH piq q2 pBti`1 ^t ´ Bti ^t q2 | Fs s “ pH piq q2 pBti`1 ´ Bti q2
i“0 i“0
pjq 2
` pH q pBs ´ Btj q2 ` ErpH pjq q2 pBtj`1 ^t ´ Bs q2 | Fs s
p
ÿ
` Er pH piq q2 pBti`1 ^t ´ Bti ^t q2 | Fs s
i“j`1
38
Université Paris Cité
Probabilités
Or
ErpH pjq q2 pBtj`1 ^t ´ Bs q2 | Fs s “ pH pjq q2 ErpBtj`1 ^t ´ Bs q2 | Fs s
“ pH pjq q2 ErpBtj`1 ^t ´ Bs q2 s
“ pH pjq q2 ptj`1 ^ t ´ sq ,
tandis que
ErpH piq q2 pBti`1 ^t ´ Bti ^t q2 | Fs s “ ErErpH piq q2 pBti`1 ^t ´ Bti ^t q2 | Fti ^t s | Fs s
“ ErpH piq q2 ErpBti`1 ^t ´ Bti ^t q2 s | Fs s
“ ErpH piq q2 | Fs spti`1 ^ t ´ ti ^ tq .
Or, le processus H étant constant par morceaux, on obtient
żt p
ÿ
Hr2 dr “ pH pjq q2 ptj`1 ^ t ´ sq ` pH piq q2 pti`1 ^ t ´ ti ^ tq ,
s i“j`1
et żt p
ÿ
Er Hr2 dr | Fs s “ pH pjq q2 ptj`1 ^ t ´ sq ` ErpH piq q2 | Fs spti`1 ^ t ´ ti ^ tq .
s i“j`1
On notera également que le lemme précédent, combiné au fait que It pHq est constant égal à IpHq
pour t assez grand, assure que ż8
ErIpHq2 s “ Er Hs2 dss .
0
Jusqu’à présent nous avons construit une application linéaire I sur l’espace vectoriel E et nous
avons vu que pour tout H P E ż8
2
ErIpHq s “ Er Hs2 dss .
0
L’idée est d’utiliser cette identité comme une propriété d’isométrie afin d’étendre par densité l’ap-
plication I.
39
Université Paris Cité
Probabilités
(i) (Mesurabilité) l’application ps, ωq ÞÑ Hs pωq est mesurable de pR` ˆ Ω, BpR` q b Fq dans
pR, BpRqq,
(ii) (Progressive mesurabilité) pour tout t P R` , l’application ps, ωq ÞÑ Hs pωq est mesurable de
pr0, ts ˆ Ω, Bpr0, tsq b Ft q dans pR, BpRqq,
ş8
(iii) (Intégrabilité) Er 0 Hs2 dss ă 8
Quelques commentaires s’imposent. L’hypothèse (iii) est nécessaire pour établir la propriété d’isométrie.
şL’hypothèse
8 2
(i) assure que pour tout ω, s ÞÑ Hs pωq est mesurable de sorte que l’on peut manipuler
0 Hs ds. Elle assure aussi que cette dernière quantité est une variable aléatoire et qu’ainsi on peut
en calculer l’espérance, ce qui est nécessaire pour énoncer l’hypothèse (iii). L’hypothèse (ii) est plus
subtile : elle assure que les processus élémentaires sont denses dans H2 .
Cet ensemble de processus est compliqué, et on ne cherchera pas à en caractériser tous les éléments.
En revanche, il contient les processus que l’on souhaite manipuler :
Lemme III.3
Tout processus stochastique adapté dont les trajectoires sont continues à gauche vérifie les propriétés
(i) et (ii). En particulier, E Ă H2 .
Démonstration Soit H un processus adapté dont les trajectoires sont continues à gauche. Pour
tout n ě 1, on définit le processus
pnq
Ht :“ Hk2´n , k2´n ď t ă pk ` 1q2´n .
pnq
Par continuité à gauche des trajectoires, Ht Ñ Ht pour tout t P R` . Il suffit donc d’établir (i) et
(ii) pour chaque H pnq .
Soit A un Borélien, on a
ď“ “
pH pnq q´1 pAq “ k2´n , pk ` 1q2´n ˆ tω : Hk2´n pωq P Au ,
k
et cette union dénombrable d’ensembles produits appartient à BpR` q b F (ici on utilise le caractère
adapté de H). La mesurabilité (i) de H pnq s’en suit.
La progressive mesurabilité (ii) s’établit de façon quasiment identique (on doit restreindre la tra-
jectoire à r0, ts). l
Mentionnons enfin que l’espace H2 est un espace de Hilbert une fois muni du produit scalaire (nous
ne démontrons pas cette affirmation)
ż
xH, KyH2 :“ Er Hs Ks dss .
R`
Venons-en au résultat de densité évoqué précédemment. Etant donné une fonction f P L2 pR` q et
un entier n ě 1, on définit la fonction en escalier
n2n
ÿ” ´ ż i2´n ¯ ı
pPn f qt :“ p´nq _ 2n fs ds ^ n 1si2´n ,pi`1q2´n s ptq , t P R` .
i“1 pi´1q2´n
40
Université Paris Cité
Probabilités
Lemme III.4
L’ensemble E est dense dans H2 . Plus précisément, si H P H2 alors :
1. pour tout n ě 1, ppPn Hqt , t P R` q est un processus élémentaire,
2. ppPn Hqt , t P R` q converge, quand n Ñ 8, vers H dans H2 .
Démonstration Pour vérifier le premier point, on observe que t ÞÑ pPn Hqt est une fonction en
escalier, qui s’annule hors de r2´n , n ` 2´n s et que sa valeur est constante sur tout intervalle de la
forme si2´n , pi ` 1q2´n s et que cette valeur est donnée par une v.a. Fi2´n -mesurable bornée.
Pour vérifier le second point, on commence par observer que
et
}Pn Hpωq ´ Hpωq}L2 pR` q ď }Pn Hpωq}L2 pR` q ` }Hpωq}L2 pR` q ď 2}Hpωq}L2 pR` q .
Ainsi le Théorème de Convergence Dominée assure que
l
On peut alors prolonger de manière unique l’application I en une application linéaire continue sur
l’espace H2 tout entier. Cette application vérifie la propriété d’isométrie : pour tout H P H2
ż8
2
ErIpHq s “ Er Ht2 dts .
0
It pHq :“ IpH1r0,ts q , t P R` .
Proposition III.5
Pour tout H P H2 , le processus pIt pHq, t P R` q est une martingale continue issue de 0, bornée dans
L2 et de variation quadratique ż t
xI¨ pHq, I¨ pHqyt “ Hs2 ds .
0
41
Université Paris Cité
Probabilités
şt
(iii) est vérifiée. Cependant, la continuité des trajectoires assure que pour tout t P R` , 0 Hs2 ds ă 8
p.s. Le but de ce paragraphe est d’étendre la construction afin de couvrir de tels processus.
Lemme III.6
2 , le processus pI pHq, t P R q est une martingale locale issue de 0 de variation
Pour tout H P Hloc t `
quadratique żt
xI¨ pHq, I¨ pHqyt “ Hs2 ds .
0
Démonstration La définition de It pHq assure que presque sûrement : pour tout t ě 0 et tout
ně1
It^Tn pHq “ It pH pnq q .
En effet, la définition assure que si t ^ Tn ď Tm alors
Or t ^ Tn ď Tn et ainsi
It^Tn pHq “ It^Tn pH pnq q .
Or
It^Tn pH pnq q “ It^Tn pH1r0,Tn s q “ IpH1r0,Tn s 1r0,t^Tn s q “ IpH1r0,Tn s 1r0,ts q “ It pH1r0,Tn s q “ It pH pnq q ,
d’où le résultat.
Comme la suite de temps d’arrêt Tn , n ě 1 tend vers `8 p.s., on a montré que It pHq est bien une
martingale locale et que la suite Tn , n ě 1 la réduit. Pour identifier sa variation quadratique, on
commence par rappeler que (voir Remarque II.27)
42
Université Paris Cité
Probabilités
Toutes ces expressions sont croissantes en n, on peut donc passer à la limite n Ñ 8 et obtenir
żt
xI¨ pHq, I¨ pHqyt “ Hs2 ds .
0
l
Dans la suite, on manipulera l’intégrale stochastique à l’aide de la notation naturelle suivante :
żt
It pHq “ Hs dBs , t ě 0 .
0
Remarque III.7
La notion de martingale locale prend tout son sens ici. L’intégrale stochastique d’un processus
H adapté et à trajectoires continues n’est, en général, pas une martingale mais seulement une
martingale locale. On peut ainsi fournir de nombreux exemples de martingales locales.
4) Un résultat d’approximation
En lien avec la discussion présentée en début de chapitre, nous énonçons un résultat affirmant
que l’intégrale d’Itô que l’on vient de construire résulte bien d’une approximation dans laquelle
l’integrand est évalué au début de chaque intervalle de la subdivision.
Proposition III.8
Soit H un processus continu adapté. Pour tout t ą 0 et toute suite 0 “ tn0 ă ¨ ¨ ¨ ă tnpn “ t de
subdivisions de r0, ts de pas tendant vers 0, la convergence suivante a lieu en probabilité
pÿ
n ´1 żt
lim Htni pBtni`1 ´ Btni q “ Hs dBs .
nÑ8 0
i“0
Démonstration Commençons par supposer qu’il existe C ą 0 tel que pour tout s P r0, ts et tout
ω P Ω, |Hs pωq| ă C. On introduit alors le processus élémentaire
pÿ
n ´1
pnq şt şt pnq
c’est-à-dire }1r0,ts psqHs ´Ks }H2 Ñ 0 et ainsi 0 Hs dBs ´ 0 Ks dBs converge vers 0 dans L2 pΩ, F, Pq.
Dans le cas général, on introduit le temps d’arrêt Tm :“ inftt ě 0 : |Hs | ě mu pour tout entier
m ě 1. La discussion précédente assure que la convergence suivante a lieu dans L2 et donc en
probabilité
pÿ
n ´1 żt
lim Htni ^Tm pBtni`1 ´ Btni q “ Hs^Tm dBs .
nÑ8 0
k“0
43
Université Paris Cité
Probabilités
Il se trouve que toute la construction présentée précédemment se généralise au cas où B est remplacé
par une martingale locale M . La différence principale porte sur la condition d’intégrabilité des
integrands : au lieu d’imposer que pour tout t P R`
żt
Hs2 ds ă 8 p.s. ,
0
on impose żt
Hs2 dxM, M ys ă 8 p.s. .
0
C’est tout-à-fait cohérent car dans le cas où M est un mouvement Brownien dxM, M ys “ ds.
Le résultat s’énonce comme suit. Soit Hloc 2 pM q l’ensemble des processus H vérifiant :
(i) (Mesurabilité) l’application ps, ωq ÞÑ Hs pωq est mesurable de pR` ˆ Ω, BpR` q b Fq dans
pR, BpRqq,
(ii) (Progressive mesurabilité) pour tout t P R` , l’application ps, ωq ÞÑ Hs pωq est mesurable de
pr0, ts ˆ Ω, Bpr0, tsq b Ft q dans pR, BpRqq,
şt
(iii) (Intégrabilité locale) pour tout t P R` , 0 Hs2 dxM, M ys ă 8 p.s.
Pour tout H P Hloc 2 pM q, il existe un processus pI pHq, t P R q qui est une martingale locale issue
t `
de 0 de variation quadratique
żt
xI¨ pHq, I¨ pHqyt “ Hs2 dxM, M ys .
0
Ce processus est caractérisé par la propriété suivante : il s’agit de l’unique martingale locale issue
de 0 telle que pour toute martingale locale N
żt
xIpHq, N yt “ Hs dxM, N ys , t P R` .
0
Là encore, on utilisera la notation
żt
It pHq “ Hs dMs , t P R` .
0
44
Université Paris Cité
Probabilités
3 Formule d’Itô
Soit X un processus obtenu comme intégrale stochastique contre un mouvement Brownien :
żt
Xt “ Hs dBs , t P R` .
0
c’est-à-dire żt
f pXt q “ f pX0 q ` f 1 pXs qHs dBs .
0
Il s’avère que
şt cette identité est2fausse en général ! Illustrons cela sur un exemple très simple. Prenons
Xt “ Bt “ 0 dBs et f pxq “ x . Il se trouve que
żt żt
f pBt q “ Bt2 ‰ B02 `2 Bs dBs “ f pB0 q ` f 1 pBs qdBs .
0 0
Or
n´1
ÿ n´1
ÿ n´1
ÿ
Bt2 “ B02 ` pB 2pnq ´ B 2pnq q “ B02 `2 Btpnq pBtpnq ´ Btpnq q ` pBtpnq ´ Btpnq q2 .
ti`1 ti i i`1 i i`1 i
i“0 i“0 i“0
şt
Par la Proposition III.8, le premier terme de gauche converge vers 2 0 Bs dBs . Par contre, le second
terme de gauche converge vers t, par le Théorème II.26. Ainsi
żt
2 2
Bt “ B0 ` 2 Bs dBs ` t .
0
En d’autres termes, l’intégrale stochastique ne vérifie pas les règles usuelles de calcul différentiel.
En particulier, la chain rule qui affirme que pour une fonction t ÞÑ ht continûment différentiable
et f : R Ñ R de classe C 1
df pht q “ f 1 pht qdht ,
n’a plus cours lorsque h est remplacé par un processus mettant en jeu une intégrale stochastique.
La formule d’Itô, que l’on introduit à présent, fournit la bonne formule pour une telle composition.
Avant cela, nous devons introduire une classe de processus à laquelle cette formule d’Itô s’appli-
quera.
Définition III.9
Un processus stochastique pXt , t P R` q est une semi-martingale s’il existe une martingale locale M
45
Université Paris Cité
Probabilités
issue de 0, un processus adapté à variation finie A et à trajectoires continues issu de 0 ainsi qu’une
v.a. X0 F0 -mesurable tels que
Xt “ X0 ` Mt ` At , t P R` .
Par le Théorème II.24 une telle décomposition est nécessairement unique. Un exemple typique de
semi-martingale est żt żt
Xt “ X0 ` Hs dBs ` Ks ds ,
0 0
M2
avec H P loc et K un processus progressivement mesurable et localement borné (on parle parfois
de processus d’Itô pour désigner de telles semi-martingales).
Remarque III.10
On peut montrer que xX, Xyt est la limite en probabilité de la somme des carrés des incréments de
X le long d’une suite de subdivisions emboı̂tées.
Remarque III.12
L’intégrale contre dXs est la somme de deux termes : une intégrale stochastique contre la partie
martingale locale de X żt
Bx f ps, Xs qdMs ,
0
et une intégrale classique contre la partie à variation finie de X
żt
Bx f ps, Xs qdAs .
0
46
Université Paris Cité
Probabilités
On se donne une suite indicée par n ě 1 de subdivisions emboı̂tées 0 “ tn0 ă tn1 ă . . . ă tnpn “ t de
l’intervalle r0, ts dont le pas tend vers 0 quand n Ñ 8. Alors
pÿ
n ´1
` ˘
f pBt q “ f pB0 q ` f pBtni`1 q ´ f pBtni q .
i“0
L’idée va être d’utiliser deux échelles d’approximation, pour faire apparaı̂tre successivement la
variation quadratique puis l’approximation de f 2 . Plus précisément pour tout m ă n on introduit
la v.a.
Zm,n :“ sup sup |fn,i ´ fm,j | .
0ďjďpm ´1 i:tm n m
j ďti ďtj`1
La continuité de f 2 assure que Zm,n Ñ 0 presque sûrement, lorsque m Ñ 8 (on rappelle que m ă n
et qu’ainsi n Ñ 8 nécessairement). On note alors que
ˇ pÿ
n ´1 pm
ÿ ´1 ÿ ˇ pÿ
n ´1
2
f B fm,i pBtni`1 ´ Btni q2 ˇ ď Zm,n pBtni`1 ´ Btni q2 .
ˇ ˇ
ˇ n,i pB n
ti`1 ´ n
ti q ´
i“0 j“0 i:tm n m
j ďti ďtj`1 i“0
Comme la somme apparaissant dans le deuxième terme converge vers t en probabilité, pour tout
ε ą 0 il existe m tel que pour tout n ą m
pÿ
n ´1
Pour cette valeur de m fixée, on voit que pour tout j P t0, . . . , pm ´ 1u et au sens de la convergence
en probabilité ÿ
lim pBtni`1 ´ Btni q2 “ tm m
j`1 ´ tj .
nÑ8
i:tm n m
j ďti ďtj`1
Par linéarité
pm
ÿ ´1 ÿ żt
2
lim fm,i pB tn
i`1
´B q “tn
i
hm
s ds ,
nÑ8 0
j“0 i:tm n m
j ďti ďtj`1
47
Université Paris Cité
Probabilités
řpm ´1
où hm
s :“ j“0 fm,i 1rtm m
j ,tj`1 r
psq. Quitte à prendre m plus grand, la continuité de f 2 assure que
Pp sup |hm 2
s ´ f pBs q| ą εq ă ε ,
sPr0,ts
et ainsi żt żt
Pp| hm
s ds ´ f 2 pBs qds| ě tεq ă ε .
0 0
En regroupant les estimations précédentes, on a montré que
ˇ pÿ
n ´1 żt ˇ
2
fn,i pBtni`1 ´ Btni q ´ f 2 pBs qdsˇ ě εp2 ` tqq ă 2ε ,
ˇ ˇ
Ppˇ
i“0 0
Cette formule s’appuie sur la covariation entre deux semi-martingales. Si X et Y sont deux semi-
martingales, dont les parties martingales locales sont données par M et N respectivement alors
xX, Y yt :“ xM, N yt .
et de symétrie
xX, Y yt “ xY, Xyt .
48
Université Paris Cité
Chapitre IV
1 Martingales exponentielles
On a déjà observé en TD que le processus pexppBt ´ 21 tq, t P R` q est une martingale. La preuve
de ce résultat s’appuie sur l’indépendance des incréments du Brownien et la connaissance de la
transformée de Laplace de la gaussienne. Il se trouve que ce résultat n’est pas limité au mouvement
Brownien comme le montre la proposition suivante.
Proposition IV.1
Soit L une martingale locale issue de 0. On définit
1
EpLqt :“ exppLt ´ xL, Lyt q , t P R` .
2
Le processus pEpLqt , t P R` q est une martingale locale issue de 1.
49
Probabilités
Remarque IV.2
2
Si L est une martingale locale et z P C alors le processus pEpzLqt “ exppzLt ´ z2 xL, Lyt q, t P R` q
est une martingale locale à valeurs complexes. La preuve est identique à celle présentée ci-dessus,
il suffit d’appliquer la formule d’Itô séparément aux parties réelles et imaginaires de la fonction
F px, yq “ exppzx ´ z 2 21 yq.
Dans la suite, il sera utile d’avoir un critère assurant que l’exponentielle stochastique construite
ci-dessus est une vraie martingale.
Théorème IV.3 (Novikov )
Soit L une martingale locale issue de 1. On fixe t ą 0. Si
” ´1 ¯ı
E exp xL, Lyt ă 8 ,
2
alors pEpLqs , s P r0, tsq est une martingale.
On rappelle que toute martingale sur un intervalle de temps borné est uniformément intégrable
(elle est fermée par sa valeur terminale).
Démonstration Soit ε P p0, 1q. Il est facile de vérifier que
´ ¯ 12 ´ ¯ 1 ´ 1 ¯ ε
1´ε 1`ε xL,Lys 1`ε
Epp1 ´ εqLqs “ EpLqs e 2 .
On introduit le temps d’arrêt Tn :“ inftt ě 0 : |L|t ` xL, Lyt ě nu. Il s’agit d’une suite qui réduit
les martingales locales EpLq et Epp1 ´ εqLq. On applique l’égalité précédente au temps s “ t ^ Tn
et l’on en prend l’espérance (qui est bien définie car tout est positif) :
”´ ¯ 12ı ”´ ¯ 1 ´ 1 ¯ ε ı
1`ε 1`ε
E Epp1 ´ εqLqt^Tn 1´ε “ E EpLqt^Tn e 2 xL,Lyt^Tn .
50
Université Paris Cité
Probabilités
On reprend alors l’inégalité (IV.1) mais appliquée au temps t plutôt que t ^ Tn et l’on obtient
”´ ¯ 12ı ” ı 1 ” 1 ı ε
1`ε 1`ε
1 ď E Epp1 ´ εqLqt 1´ε ď E EpLqt E e 2 xL,Lyt .
Lemme IV.4
Soit N une martingale locale positive issue de 1. Alors N est une super-martingale. Par ailleurs
pNs , s P r0, tsq est une martingale si et seulement si ErNt s ě ErN0 s.
Démonstration Soit Tn , n ě 1 une suite de temps d’arrêt qui réduit N . Pour tout 0 ď s ď t
Ns^Tn “ ErNt^Tn | Fs s .
Or Ns^Tn et Nt^Tn convergent p.s. vers Ns et Nt quand n Ñ 8. Comme il s’agit de v.a. positives,
on peut appliquer le Lemme de Fatou pour l’espérance conditionnelle (qui se prouve en utilisant la
définition de l’espérance conditionnelle et le lemme de Fatou classique) :
Démonstration L’implication (i) ñ (ii) est déjà connue. Supposons (ii). Par la Proposition IV.1
et la Remarque IV.2, le processus
λ2
EpiλXqt “ exppiλXt ` tq , t P R` ,
2
est une martingale locale. Comme elle est bornée sur tous les intervalles bornés, il s’agit d’une vraie
martingale. Ainsi pour tous 0 ď s ď t
λ2 λ2
exppiλXs ` sq “ ErexppiλXt ` tq | Fs s .
2 2
51
Université Paris Cité
Probabilités
soit encore
Er1A f pXt ´ Xs qs “ PpAqErf pXt ´ Xs qs .
Cela étant vrai pour tout A P Fs et toute fonction mesurable positive f , on en déduit que Xt ´ Xs
est indépendante de Fs . On a donc montré que X est un processus à trajectoires continues, dont
les accroissements sont indépendants et stationnaires, et tels que Xt ´ Xs „ N p0, t ´ sq. Par la
Proposition I.7, on en déduit que X est un mouvement Brownien. l
Enonçons également la version multi-dimensionnelle de ce résultat, sa preuve est tout à fait similaire.
Théorème IV.6 (Caractérisation de Lévy du mouvement Brownien multi-dimensionnel )
Soit X “ pX p1q , . . . , X pdq q un processus adapté, à trajectoires continues et issu de 0. Il y a
équivalence entre :
1. X est un mouvement Brownien multi-dimensionnel,
2. Chaque processus X piq est une martingale locale et xX piq , X pjq yt “ t1i“j pour tout t P R` et
tous i, j P t1, . . . , du.
@t ě 0 , Mt “ BxM,M yt .
Ce très joli résultat montre que toute martingale locale issue de 0 est un mouvement Brownien
changé de temps. Par ailleurs la contrainte xM, M y8 “ 8 p.s. est plutôt d’ordre technique, et peut
être levée.
3 Théorème de Girsanov
Le théorème de Girsanov est un outil très utile en calcul stochastique. Il s’appuie sur un changement
de mesure : à l’aide d’une martingale exponentielle, on introduit une mesure de probabilité Q qui
52
Université Paris Cité
Probabilités
est équivalente à P. Le théorème établit alors une correspondance entre martingales locales sous la
mesure d’origine P et martingales locales sous la nouvelle mesure Q.
Commençons par introduire ce changement de mesure : pour éviter les confusions, nous notons à
présent EP l’espérance par rapport à la probabilité P d’origine, et EQ l’espérance sous une autre
probabilité Q.
Proposition IV.8
Soit L une martingale locale issue de 0. On fixe t ě 0 et on suppose que pEpLqs , s P r0, tsq est une
vraie martingale. On pose pour tout A P Ft
Alors Q est une mesure de probabilité sur pΩ, Ft q et pour tout s P r0, ts et tout A P Fs
Démonstration Vérifions que Q est effectivement une mesure de probabilité sur pΩ, Ft q. Il est
clair que QpHq “ 0. Par ailleurs si An , n ě 1 est une suite d’événements deux-à-deux disjoints
alors, en utilisant le théorème de Fubini, on obtient
ÿ ÿ ÿ
QpYn An q “ EP r1Yn An EpLqt s “ EP r 1An EpLqt s “ EP r1An EpLqt s “ QpAn q .
n n n
QpAq “ EP r1A EpLqt s “ EP rEP r1A EpLqt | Fs ss “ EP r1A EP rEpLqt | Fs ss “ EP r1A EpLqs s .
l
Pour s’assurer que pEpLqs , s P r0, tsq est une vraie martingale, on peut utiliser le critère de Novikov
du Théorème IV.3.
Théorème IV.9
Soit L une martingale locale issue de 0. On fixe t ě 0 et on suppose que pEpLqs , s P r0, tsq est
une vraie martingale. On note alors Q la mesure de probabilité induite par EpLqt , comme introduit
dans le résultat précédent.
Si pBs , s P r0, tsq est un mouvement Brownien sous P alors le processus
Démonstration On se contente de prouver l’énoncé qui concerne B̃. On commence par supposer
qu’il existe une constante C ą 0 telle que p.s. xL, Lyt ď C. On peut alors vérifier que p.s. pour tout
53
Université Paris Cité
Probabilités
s P r0, ts
1` ˘ 1` ˘
|xL, Bys | ď xL, Lys ` xB, Bys ď C ` t .
2 2
Pour la première inégalité, on a utilisé le fait que xL ´ B, L ´ By ě 0, xL ` B, L ` By ě 0 et ainsi
1
´xL, By ď pxL, Ly ` xB, Byq ,
2
1
xL, By ď pxL, Ly ` xB, Byq ,
2
1
` ˘
de sorte que |xL, Bys | ď 2 xL, Lys ` xB, Bys .
Pour tout θ P R
|xL ` θB, L ` θByt | “ |xL, Lyt ` 2θxL, Byt ` θt| ď C ` |θ|pC ` tq ` |θ|t .
le critère de Novikov assure que la martingale locale EpL ` θBq est une vraie martingale sur
l’intervalle r0, ts. On en déduit que pour tous 0 ď u ď v ď t
EP rEpL ` θBqv | Fu s “ EpL ` θBqu .
Un calcul simple permet d’en déduire que
1
EP rEpLqv exppθpB̃v ´ B̃u qq | Fu s “ EpLqu expp θ2 pv ´ uqq .
2
Soit A P Fu , on obtient alors
1
EP rEpLqv exppθpB̃v ´ B̃u qq1A s “ expp θ2 pv ´ uqqEP rEpLqu 1A s .
2
Cela se ré-écrit
1
EQ rexppθpB̃v ´ B̃u qq1A s “ expp θ2 pv ´ uqqQpAq .
2
En prenant A “ Ω, on voit que B̃v ´ B̃u „ N p0, v´uq sous Q. Par ailleurs, un raisonnement similaire
à celui présenté dans la preuve de la caractérisation de Lévy du mouvement Brownien permet de
déduire de l’identité précédente que B̃v ´ B̃u est indépendante de Fu sous Q. Le processus B̃ est
à trajectoires continues, à accroissements indépendants et pour tous 0 ď u ď v ď t, B̃v ´ B̃u „
N p0, v ´ uq : par la Proposition I.7 on en déduit que pB̃s , s P r0, tsq est un mouvement Brownien
sous Q. Avant de passer au cas général, remarquons que l’on peut déduire de ce qui vient d’être
établi que
1
EP rEpLqv exppiθpB̃v ´ B̃u qq1A s “ expp´ θ2 pv ´ uqqEP rEpLqu 1A s .
2
En effet, comme B̃ est un Brownien sous Q on a
1
EQ rexppiθpB̃v ´ B̃u qq1A s “ expp´ θ2 pv ´ uqqEQ pAq ,
2
or EQ pAq “ EP rEpLqu 1A s et
EQ rexppiθpB̃v ´ B̃u qq1A s “ EP rEpLqt exppiθpB̃v ´ B̃u qq1A s
“ EP rEP rEpLqt exppiθpB̃v ´ B̃u qq1A | Fv ss
“ EP rexppiθpB̃v ´ B̃u qq1A EP rEpLqt | Fv ss
“ EP rexppiθpB̃v ´ B̃u qq1A EpLqv s .
54
Université Paris Cité
Probabilités
Dans le cas général, on introduit la suite de temps d’arrêt Tn :“ infts ě 0 : xL, Lys ě nu pour n ě 1.
pnq
On considère le processus arrêté LTn , la martingale EpLTn q et le processus B̃s :“ Bs ´ xLTn , Bys .
Les arguments précédents assurent que
1
EP rEpLTn qv exppiθpB̃vpnq ´ B̃upnq qq1A s “ expp´ θ2 pv ´ uqqEP rEpLTn qu 1A s .
2
Or pour tout s P r0, ts, EpLTn qs “ EpLqs^Tn Ñ EpLqs presque sûrement quand n Ñ 8. De même
pnq pnq
B̃v ´ B̃u Ñ B̃v ´ B̃u . Par ailleurs, les v.a. EpLTn qs sont d’espérance (sous P) égale à 1 et sont
positives. Le Lemme de Scheffé assure alors EpLqs^Tn Ñ EpLqs dans L1 quand n Ñ 8. On peut
alors passer à la limite dans l’identité précédente et obtenir
1
EP rEpLqv exppiθpB̃v ´ B̃u qq1A s “ expp´ θ2 pv ´ uqqEP rEpLqu 1A s .
2
On peut alors conclure comme précédemment. l
4 Inégalités de Burkholder-Davis-Gundy
Nous terminons cette section en introduisant des inégalités générales reliant le supremum d’une
martingale locale et sa variation quadratique.
Théorème IV.10
Pour tout réel p ą 0 il existe des constantes cp , Cp ą 0 telles que, pour toute martingale locale M
issue de 0 ` ˚ ˘p
p{2 p{2
cp ErxM, M y8 s ď Er M8 s ď Cp ErxM, M y8 s ,
où Mt˚ “ supsPr0,ts |Ms | pour tout t P r0, 8s.
Bien que ces inégalités soient énoncées au temps `8, on peut facilement les étendre à un temps
d’arrêt quelconque. En effet, si T est un temps d’arrêt et M est une martingale locale, alors M T
est encore une martingale locale et l’on a
T ˚
pM8 q “ sup |Mt | , xM T , M T y8 “ xM, M yT .
tPr0,T s
55
Université Paris Cité
Probabilités
56
Université Paris Cité
Chapitre V
Les processus stochastiques obtenus comme solutions d’équations différentielles stochastiques di-
rigées par un mouvement Brownien sont communément appelés processus de diffusion. Nous verrons
dans le chapitre suivant qu’ils tissent des liens étroits avec certains opérateurs différentiels et cer-
taines EDP.
Le but de ce chapitre est d’établir des résultats d’existence et d’unicité pour de telles équations.
Commençons par étudier un cas simple.
1 Processus d’Ornstein-Uhlenbeck
Considérons une particule qui se déplace sur la droite réelle et qui est soumise à une force de friction
de coefficient c ą 0. Sa position xt est alors solution de l’équation différentielle
d2 d
m 2
xt “ ´c xt .
dt dt
Si en plus de cette force de friction, la particule subit une multitude de chocs infinitésimaux avec
d’autres particules, on peut être amené à modéliser la force résultante par l’incrément d’un mou-
vement Brownien dBt . L’équation d’évolution pour la vitesse, notée Vt , de la particule devient
alors :
dVt “ ´bVt dt ` σdBt , t ě 0 , (V.1)
57
Probabilités
partant d’une condition initiale V0 P R, et où b, σ ą 0 sont des constantes. Cette équation doit être
comprise au sens intégral :
żt
Vt “ V0 ´ b Vs ds ` σBt , t ě 0 . (V.2)
0
Proposition V.1
Il existe un unique processus continu V satisfaisant l’équation (V.2). Ce processus, appelé processus
d’Ornstein-Uhlenbeck, est donné par
żt
Vt “ e V0 ` σ e´bpt´sq dBs , t ě 0 .
´bt
0
En d’autres termes, pour tout ω P Ω, t ÞÑ Zt pωq satisfait une équation différentielle ordinaire :
et ainsi żt
´bt
Vt “ e V0 ´ bσ e´bpt´sq Bs ds ` σBt , tě0.
0
ce qui permet de conclure. (En fait l’argument d’existence permet également de prouver l’unicité).
l
La solution obtenue est composée
şt de deux termes : un terme d’amortissement de la condition initiale
e´bt V0 et un terme gaussien σ 0 e´bpt´sq dBs centré de variance
żt
1 ´ e´2bt
σ2 e´2bpt´sq ds “ σ 2 .
0 2b
58
Université Paris Cité
Probabilités
Le terme d’amortissement tend vers 0 quand t Ñ 8. En revanche le terme gaussien converge en loi
vers une v.a. V8 „ N p0, σ 2 {p2bqq.
2 Solutions fortes
On se donne deux fonctions b : R` ˆ R Ñ R et σ : R` ˆ R Ñ R et l’on considère l’équation
On notera que la condition 2. est nécessaire pour que les intégrales apparaissant dans la condition
3. aient un sens.
Théorème V.3 (Existence et unicité de solutions fortes)
On suppose que les fonctions b et σ sont continues et qu’il existe une constante K ą 0 telle que
pour tout t P R` et tous x, y P R
|bpt, 0q| ` |σpt, 0q| ď K , |bpt, xq ´ bpt, yq| ` |σpt, xq ´ σpt, yq| ď K|x ´ y| .
żt
gptq ď a ` b gpsqds , t P r0, T s ,
0
59
Université Paris Cité
Probabilités
gptq ď a exppbtq
La preuve du lemme procède par itération, nous ne la présentons pas. Mentionnons simplement
qu’il est facile de retrouver le résultat de ce lemme. En effet, si g satisfait
żt
gptq “ a ` b gpsqds , t P r0, T s , (V.4)
0
alors la théorie des équations différentielles ordinaires assure que
gptq “ a exppbtq .
Si l’égalité dans (V.4) est remplacée par une inégalité, il est raisonnable d’obtenir également une
inégalité dans la dernière équation.
Démonstration [unicité - Théorème V.3] Commençons par la preuve de l’unicité. Soient X et Y
deux solutions. Pour M ą 0 fixé on introduit le temps d’arrêt
τ :“ inftt ě 0 : |Xt | ^ |Yt | ě M u .
On voit alors que
ż t^τ ´ ¯ ż t^τ ´ ¯
Xt^τ ´ Yt^τ “ σps, Xs q ´ σps, Ys q dBs ` bps, Xs q ´ bps, Ys q ds .
0 0
Fixons alors un horizon de temps T ą 0. Pour tout t P r0, T s, en utilisant l’inégalité px ` yq2 ď
2x2 ` 2y 2 on trouve
”´ ż t^τ ´ ¯ ¯2 ı ”´ ż t^τ ´ ¯ ¯2 ı
Er|Xt^τ ´ Yt^τ |2 s ď 2E σps, Xs q ´ σps, Ys q dBs ` 2E bps, Xs q ´ bps, Ys q ds .
0 0
´ ¯
On note alors que s ÞÑ 1r0,t^τ s psq σps, Xs q ´ σps, Ys q appartient à H2 de sorte que l’isométrie
d’Itô assure que
”´ ż t^τ ´ ¯ ¯2 ı ” ż t^τ ´ ¯2 ı
E σps, Xs q ´ σps, Ys q dBs “E σps, Xs q ´ σps, Ys q ds
0 0
” ż t^τ ˇ ˇ2 ı
2
ďK E ˇXs ´ Ys ˇ ds
ˇ ˇ
0
ż t ”ˇ ˇ2 ı
2
ďK E ˇXs^τ ´ Ys^τ ˇ ds .
ˇ ˇ
0
Par ailleurs, en utilisant l’inégalité de Jensen on trouve
”´ ż t^τ ´ ¯ ¯2 ı ”´ ż t^τ ´ ¯ ds ¯2 ı
E bps, Xs q ´ bps, Ys q ds “E T bps, Xs q ´ bps, Ys q
0 0 T
” ż t^τ ´ ¯2 ı
ďE T bps, Xs q ´ bps, Ys q ds
0
” ż t^τ ˇ ˇ2 ı
ď T K 2E X Ys ˇ ds
ˇ ˇ
ˇ s ´
0
ż t ”ˇ ˇ2 ı
ď T K 2 E ˇXs^τ ´ Ys^τ ˇ ds .
ˇ ˇ
0
60
Université Paris Cité
Probabilités
On pose alors ”ˇ ˇ2 ı
gpsq :“ E ˇXs^τ ´ Ys^τ ˇ ,
ˇ ˇ
On notera que chaque X pnq est continu et adapté à la filtration Brownienne et qu’ainsi chaque
pnq 2 de sorte que les intégrales stochastiques sont bien
processus s ÞÑ σps, Xs q appartient à Hloc
définies.
Fixons T ą 0. En utilisant des arguments tout à fait similaires à ce qui a été développé pour
l’uncité, on peut montrer qu’il existe pour tout n ě 0 une constante Cn ě 0 telle que
pnq
ErpXt q2 s ď C pnq , t P r0, T s . (V.6)
pn`1q pnq
Majorons alors Ersup0ďsďt pXs ´Xs q2 s. Par le même argument que dans la preuve de l’unicité,
on obtient
” ´ż s´ ¯ ¯2 ı
Er sup pXspn`1q ´ Xspnq q2 s ď 2E sup σpr, Xrpnq q ´ σpr, Xrpn´1q q dBr
0ďsďt 0ďsďt 0
” ´ż s´ ¯ ¯2 ı
` 2E sup bpr, Xrpnq q ´ bpr, Xrpn´1q q dr .
0ďsďt 0
La majoration (V.6) assure que les martingales locales sont de vraies martingales. L’inégalité de
Doob puis l’isométrie d’Itô assurent alors que
” ´ż s´ ¯ ¯2 ı ”´ ż t ´ ¯ ¯2 ı
pnq pn´1q
E sup σpr, Xr q ´ σpr, Xr q dBr ď 4E σpr, Xrpnq q ´ σpr, Xrpn´1q q dBr
0ďsďt 0 0
”ż t´ ¯2 ı
ď 4E σpr, Xrpnq q ´ σpr, Xrpn´1q q dr
0
”ż tˇ ˇ2 ı
2 ˇ pnq
ď 4K E ˇXr ´ Xrpn´1q ˇ dr
ˇ
0
”ż t ˇ ˇ2 ı
ď 4K 2 E sup ˇXrpnq ´ Xrpn´1q ˇ ds .
ˇ ˇ
0 0ďrďs
61
Université Paris Cité
Probabilités
62
Université Paris Cité
Probabilités
En passant à la limite sur (V.5) on obtient l’égalité suivante dans L2 pour tout t P r0, T s
żt żt
Xt :“ x ` σps, Xs qdBs ` bps, Xs qds .
0 0
La continuité des trajectoires assure que l’égalité a lieu p.s. pour tous les t P r0, T s simultanément.
Comme T ą 0 est arbitraire, on peut conclure. l
Illustrons le résultat que l’on vient de prouver sur un exemple. Considérons l’EDS
σ2
Xt “ x exppσBt ` pb ´ qtq , t P R` .
2
Dans le cas particulier où b “ 0, on obtient la martingale exponentielle xEpσBqt .
63
Université Paris Cité
Probabilités
|bi p0, xq| ` |σi,j p0, xq| ď K , |bi pt, xq ´ bi pt, yq| ` |σi,j pt, xq ´ σi,j pt, yq| ď K|x ´ y| .
4 Solutions faibles
Peut-on s’affranchir des hypothèses utilisées dans les deux théorèmes précédents ? Plus parti-
culièrement, est-il nécessaire que les coefficients b et σ soient Lipschitziens en espace ?
La caractérisation de Lévy, Théorème IV.5, assure alors que X est un mouvement Brownien.
Or ´X satisfait żt żt
´Xt “ ´ sgnpXs qdBs “ sgnp´Xs qdBs .
0 0
şt
(En effet, ces deux intégrales diffèrent là où Xs s’annulent cependant 0 1Xs “0 dBs est une martin-
şt
gale locale de crochet égal à 0 1Xs “0 ds et cette quantité est nulle pour un mouvement Brownien).
Ainsi ´X satisfait également l’EDS de sorte qu’il ne peut y avoir d’unicité forte pour l’équation.
64
Université Paris Cité
Probabilités
De façon intuitive, le défaut d’unicité de l’EDS vient de la liberté que l’on a, au moment où la
solution touche 0, de la faire partir vers le haut ou vers le bas. Si l’on décomposait la trajectoire
de X en excursions hors de 0, on pourrait obtenir une autre solution en changeant le signe d’une
partie des excursions.
En fait, on peut même montrer qu’il n’y a pas existence forte. Partons d’un mouvement Brownien
W et définissons B à partir de W de la manière suivante :
żt
Bt :“ sgnpWs qdWs .
0
La caractérisation de Lévy, Théorème IV.5, assure alors que B est un mouvement Brownien. Or
żt żt żt
2
sgnpWs qdBs “ sgnpWs q dWs “ dWs “ Wt ,
0 0 0
65
Université Paris Cité
Probabilités
On part d’un mouvement Brownien X sur un espace de probabilité filtré pΩ, F, pFt qt , Pq. On fixe
T ą 0 et l’on définit le changement de mesure
où żt
1 t
ż
Lt :“ expp bps, Xs qdXs ´ |bps, Xs q|2 dsq , tě0.
0 2 0
(On notera que l’intégrale stochastique fait sens car le processus pbps, Xs q, s P r0, tsq est progressi-
vement mesurable et borné). Le Théorème IV.9 assure alors que sous Q
żt
Bt :“ Xt ´ xX, Lyt “ Xt ´ bps, Xs qds ,
0
66
Université Paris Cité
Chapitre VI
1 Processus de Markov
Commençons par introduire la notion de processus de Markov. Informellement, on dit qu’un pro-
cessus stochastique X est de Markov si son évolution future ne dépend que de l’état présent du
processus et non de l’ensemble de son passé. Pour en donner une définition plus rigoureuse il nous
faut introduire un peu de vocabulaire.
Définition VI.1
Une famille ppt px, ¨qqtě0,xPRd de mesures de probabilités sur Rd est appelée noyau de transition si
1. p0 px, ¨q “ δx pour tout x P Rd ,
2. pour tout Borélien A P BpRd q, l’application pt, xq ÞÑ pt px, Aq est mesurable,
3. pour tout Borélien A P BpRd q et toute paire 0 ď s ď t, la relation dite de Chapman-
Kolmogorov est satisfaite
ż
pt px, Aq “ ps px, dyqpt´s py, Aq , @x P Rd .
Rd
Etant donné un noyau de transition ppt px, ¨qqtě0,xPRd , nous pouvons introduire un semigroupe
d’opérateurs pPt , t ě 0q en posant
ż
Pt f pxq :“ pt px, dyqf pyq , @x P Rd , @t ě 0 ,
Rd
Remarque VI.2
Il s’agit en fait de la définition d’un noyau de transition homogène en temps. Il est possible de
donner une définition plus générale.
Pt “ Pt´s ˝ Ps , @0 ď s ď t .
67
Probabilités
Examinons cette dernière identité. Le terme de gauche peut s’interpréter comme : la meilleure
approximation de f pXt q sachant toute la trajectoire jusqu’au temps s. Le terme de droite, lui, ne
dépend que de la valeur de la trajectoire au temps s et, à l’aide du semigroupe, propage cette
quantité vers le temps t.
Proposition VI.4
Le mouvement Brownien est un processus de Markov dont le noyau de transition est donné par le
noyau gaussien
1 |x ´ y|2
pt px, dyq “ expp´ qdy .
p2πtqd{2 2t
Démonstration Il n’est pas difficile de vérifier les deux premières propriétés que doit vérifier un
noyau de transition. Concernant la troisième, elle peut se prouver comme suit. L’application
ż
A ÞÑ ps px, dyqpt´s py, Aq ,
Rd
est la convolée de deux lois de probabilités sur Rd : N px, sIdq et N p0, pt ´ sqIdq. Il est bien connu
que cette convolée n’est rien d’autre que N px, tIdq qui n’est rien d’autre que pt px, ¨q.
Soit B un mouvement Brownien et pFt qtě0 sa filtration naturelle. Calculons à présent :
Or Bt ´ Bs est indépendant de Fs par la Proposition I.18 de sorte que les propriétés de l’espérance
conditionnelle assurent que si l’on pose pour tout z P Rd
Φpzq :“ Erf pz ` Bt ´ Bs qs ,
|bi p0q| ` |σi,j p0q| ď K , |bi pxq ´ bi pyq| ` |σi,j pxq ´ σi,j pyq| ď K|x ´ y| .
68
Université Paris Cité
Probabilités
Proposition VI.5
On se place sous les hypothèses du Théorème V.6 en supposant que les coefficients ne dépendent
pas du temps, et l’on note Xtx la solution de l’EDS correspondante partant de x P Rd . On pose
pour tout x P Rd et tout t ě 0
Alors pour tout x P Rd , le processus pXtx , t ě 0q est un processus de Markov de noyau de transition
ppt py, ¨qqtě0,yPRd .
Ce résultat découle essentiellement de l’unicité des solutions fortes des EDS considérées qui assure
le fait suivant : la solution au temps t partant de x coı̈ncide avec la solution au temps t ´ s partant
de la valeur (aléatoire !) de la solution au temps s partant de x.
Il y a cependant des détails pénibles à vérifier, et nous ne présentons donc pas la preuve.
On se place toujours sous les hypothèses du Théorème V.6 en supposant que les coefficients ne
dépendent pas du temps.
Théorème VI.6 (Propriété de Markov forte)
Soit x P Rd . Si T est un temps d’arrêt fini p.s. alors pour toute fonction F : Cpr0, 8r, Rq Ñ R
mesurable bornée on a presque sûrement
où
Φpyq “ ErF pX¨y qs , y P Rd .
Il convient de comparer cet énoncé avec la propriété de Markov forte vérifiée par le mouvement
Brownien. On notera cependant que dans le cas des solutions fortes d’EDS, il n’est pas vrai en
général que le processus
pXTx `t ´ XTx , t ě 0q ,
|bi pxq| ` |σi,j pxq| ď K , |bi pxq ´ bi pt, yq| ` |σi,j pxq ´ σi,j pyq| ď K|x ´ y| .
(On notera qu’on a ici supposé que les fonctions σ et b étaient bornées par K en tout point). Le
théorème V.6 s’applique sous ces hypothèses et fournit un processus de Markov pXtx , t ě 0q pour
tout point de départ x P Rd .
69
Université Paris Cité
Probabilités
Cette partie esquisse des liens profonds entre d’un côté certains opérateurs différentiels et cer-
taines EDP (équations aux dérivées partielles), et d’un autre côté certains processus de diffusion.
Nous recommandons de ne pas s’attarder sur les hypothèses ou les détails techniques, mais plutôt
d’apprécier les liens à un niveau formel.
1) Générateur infinitésimal
Théorème VI.7
On introduit l’opérateur différentiel suivant :
d d d
ÿ Bf 1ÿÿ B2f
Lf pxq :“ bi pxq pxq ` pσσ ˚ qij pxq pxq , x P Rd ,
i“1
Bxi 2 i“1 j“1 Bxi Bxj
agissant sur les fonctions f : Rd Ñ R de classe Cc8 . Pour toute fonction f : Rd Ñ R de classe Cc8 ,
le processus żt
f pXtx q ´ f pxq ´ Lf pXsx qds , t ě 0 ,
0
est une martingale.
d żt d ż
ÿ 1 ÿ t 2
f pXt q “ f pxq ` Bxi f pXs qdXspiq ` B f ps, Xs qdxX piq , X pjq ys .
i“1 0
2 i,j“1 0 xi ,xj
Or
k
ÿ
dXspiq “ bi pXs qds ` σi,` pXs qdBsp`q ,
`“1
et
k
ÿ
dxX piq , X pjq ys “ σi,` pXs qσj,` pXs q “ pσσ ˚ pXs qqij .
`“1
d ÿ
ÿ k żs
Ms :“ Bxi f pXr qσi,` pXr qdBrp`q .
i“1 `“1 0
Il s’agit d’une martingale car l’integrand est continu et borné. On obtient alors
d żt d ż
ÿ 1 ÿ t 2
f pXt q “ f pxq ` Bxi f pXs qbi pXs qds ` B f ps, Xs qpσσ ˚ pXs qqij ` Mt
i“1 0
2 i,j“1 0 xi ,xj
żt
“ f pxq ` Lf pXs qds ` Mt .
0
70
Université Paris Cité
Probabilités
2) Equation de Fokker-Planck
On note Xtx le processus de Markov solution de (V.7) partant de x. On peut souhaiter obtenir une
équation d’évolution pour sa loi, en d’autres termes, une équation d’évolution pour t ÞÑ pt px, ¨q.
On introduit l’opérateur différentiel
d d d
ÿ B 1 ÿ ÿ B2
˚
L f “´ pbi f qpxq ` pf pσσ ˚ qij qpxq , x P Rd .
i“1
Bx i 2 i“1 j“1
Bx i Bx j
Il s’agit de l’adjoint de l’opérateur L (par rapport à la mesure de Lebesgue). Plus précisément, pour
toutes fonctions f, g P Cc8 ż ż
f pxqLgpxqdx “ L˚ f pxqgpxqdx .
x x
Alors t ÞÑ pt px, ¨q est solution de l’équation d’évolution dite de Fokker-Planck
Bt pt px, ¨q “ L˚ pt px, ¨q ,
Or ż ż ż ż ż
` ˘
Bt f pxqPt gpxqdx “ Bt f pxqpt px, dyqgpyqdx “ f pxqBt pt px, dygpyq dx .
x x y x y
71
Université Paris Cité
Probabilités
Ajoutons une hypothèse supplémentaire dite d’uniforme ellipticité : il existe c ą 0 tel que pour tout
vecteur λ P Rd
ÿd
pσσ ˚ qij λi λj ě c}λ}2 .
i,j“1
Dans ce cas, il est possible de montrer que la loi pt px, ¨q admet une densité :
Bt pt px, yq “ L˚ pt px, yq .
3) EDP parabolique
On se place sous les mêmes hypothèses que dans la partie précédente et l’on note L l’opérateur
différentiel associé. Soit u : R` ˆ Rd Ñ R une fonction continue bornée telle que
et
upt, ¨q P Cb2 pRd q , @t Ps0, `8r .
Supposons que u satisfait l’EDP parabolique suivante
#
Bu
Bt “ Lu , tą0
(VI.1)
up0, xq “ f pxq , x P Rd ,
Ce résultat assure que l’existence d’une solution à l’EDP parabolique (VI.1) implique l’unicité de
la solution.
Démonstration Une application de la formule d’Itô au processus pupt ´ s, Xsx q, s P r0, trq assure
que pour tout s P r0, tr
Erupt ´ s, Xsx qs “ Erupt, X0x qs “ upt, xq .
Or la fonction u est continue bornée donc le théorème de convergence dominée assure que lorsque
sÒt
Erupt ´ s, Xsx qs Ñ Erup0, Xtx qs “ Erf pXtx qs ,
et le résultat s’en suit. On notera que l’on n’a pas appliqué la formule d’Itô au temps t mais à un
temps s antérieur à t : en effet, la fonction f est de classe C 1,2 sur s0, `8rˆRd mais rien n’assure
qu’elle le soit aussi au temps 0. l
72
Université Paris Cité
Probabilités
4) Formule de Feynman-Kac
Soit V : Rd Ñ R une fonction continue et bornée inférieurement. Soit u : R` ˆ Rd Ñ R une fonction
continue bornée telle que
up¨, xq P C 1 ps0, `8rq , @x P Rd ,
et
upt, ¨q P Cb2 pRd q , @t Ps0, `8r .
On suppose que u satisfait l’EDP
#
Bu
Bt “ Lu ´ V u , tą0
(VI.2)
up0, xq “ f pxq , x P Rd ,
şs
V pXu qdu
Démonstration Appliquer Itô au processus pe´ 0 upt ´ s, Xs q, s P r0, trq. l
73
Université Paris Cité
Probabilités
74
Université Paris Cité
Annexe A
Généralités
1 Variables aléatoires
Soit pΩ, F, Pq un espace de probabilité. Soit pE, Eq un espace mesurable.
Définition A.1
Une application X : Ω Ñ E mesurable par rapport aux tribus F et E est appelée variable aléatoire.
On rappelle que X est mesurable par rapport aux tribus F et E si pour tout B P E, X ´1 pBq P F.
Définition A.2
Soit X un variable aléatoire de pΩ, F, Pq dans pE, Eq. L’application de µX : E Ñ r0, 1s définie par
est une mesure de probabilité sur pE, Eq que l’on appelle loi de X.
On notera que la loi de X n’est rien d’autre que l’image par X de la mesure de probabilité P.
Quelques exemples :
1. Jet de dés : Ω “ t1, . . . , 6un muni de la tribu F de toutes les parties de Ω et de la mesure
uniforme P. L’application Xk : ω ÞÑ ωk qui retourne la k-ème coordonnée est une variable
aléatoire à valeurs dansřt1, . . . , 6u muni de la tribu de toutes ses parties. Sa loi est uniforme.
L’application S : Ω Ñ nk“1 Xk est une variable aléatoire à valeurs dans tn, . . . , 6nu. Sa loi
peut être explicitée.
2. Variable gaussienne : Ω “ E “ R, F “ E “ BpRq (la tribu Borélienne) et P la mesure de
probabilté
1 2
Ppdxq “ ? e´x {2 dx .
2π
3. Variable constante égale à a P E : µX “ δa où l’on définit la masse de Dirac δa pBq “ 1B paq
pour tout B P E.
Proposition A.3 (Formule de transfert)
Soit X une variable aléatoire à valeurs dans un espace pE, Eq et h : E Ñ R une fonction pE, BpRqq-
75
Probabilités
Il s’agit d’une fonction continue bornée. Par ailleurs fn converge ponctuellement vers l’indicatrice
de O quand n Ñ 8. Ainsi le théorème de convergence dominée assure que
ż ż
µX pOq “ lim fn dµX , µY pOq “ lim fn dµY ,
n E n E
1) Fonction caractéristique
L’application
ΦX :Rd Ñ R
t ÞÑ Ereixt,Xy s ,
76
Université Paris Cité
Probabilités
est appelée fonction caractéristique de la variable aléatoire X. La formule de transfert montre que la
fonction caractéristique est complétement déterminée par la loi de X. Il se trouve que la réciproque
est vraie :
Théorème A.5
La loi de X est entièrement caractérisée par sa fonction caractéristique.
2) Fonction de répartition
On suppose que d “ 1.
Définition A.7
La fonction FX : R Ñ r0, 1s définie par
Comme les ensembles p´8, ts, t P R, engendrent la tribu Borélienne, le lemme de classe monotone
permet de déduire que FX caractérise la loi µX .
Proposition A.8
L’ensemble des fonctions de répartitions est exactement donné par l’ensemble des fonctions F :
R Ñ r0, 1s, continues à droite, croissantes, qui convergent vers 1 en `8 et 0 en ´8.
3 Variables gaussiennes
La loi gaussienne uni-dimensionnelle de moyenne m P R et de variance σ 2 ą 0 est la mesure de
probabilité sur R de densité
1 |x´m|2
? e´ 2σ2 , x P R .
2πσ 2
Dans le cas σ 2 “ 0, il s’agit de la mesure de probabilité sur R donnée par la masse de Dirac en m :
77
Université Paris Cité
Probabilités
Définition A.9
On dit qu’une variable aléatoire à valeurs dans Rd pour d ě 1 est gaussienne si toute combinaison
linéaire de ses coordonnées est une variable aléatoire gaussienne (uni-dimensionnelle).
Comme pour tout vecteur aléatoire à valeurs dans Rd (dont la norme euclidienne admet un moment
d’ordre 2) on peut définir le vecteur moyenne m et la matrice de covariance Σ d’une v.a. gaussienne
X
mk :“ ErXk s , Σpk, `q “ CovpXk , X` q .
On notera bien que m est un élément de Rd alors que Σ est une matrice symétrique positive de
taille d ˆ d.
Proposition A.10
La fonction caractéristique d’une variable aléatoire gaussienne X est donnée par
xt, Σty
ΦX ptq “ exppixt, my ´ q, t P Rd .
2
En conséquence, la loi d’une variable aléatoire gaussienne est entièrement déterminée par son vec-
teur moyenne et sa matrice de covariance.
Soit Y “ pY1 , . . . , Yd q un vecteur aléatoire dont les coordonnées sont des v.a. gaussiennes uni-
dimensionnelles, indépendantes centrées réduites. Il est facile de vérifier que Y est une variable
aléatoire gaussienne de moyenne le vecteur nul et de matrice de covariance la matrice identité.
1 ´ xΣ´1 px ´ mq, x ´ my ¯
a exp ´ , x P Rd .
p2πqd{2 detpΣq 2
4 Espérance conditionnelle
Dans cette partie, on manipule des variables aléatoires réelles.
Définition A.12 (Espérance conditionnelle dans L1 )
Soit pΩ, F, Pq un espace de probabilité, B Ď F une sous-tribu et X P L1 pΩ, F, Pq. On définit
l’espérance conditionnelle de X sachant B, que l’on note E rX | Bs, comme l’unique variable aléatoire
78
Université Paris Cité
Probabilités
On définit alors l’espérance conditionnelle d’une variable aléatoire X sachant une autre variable
aléatoire Y comme l’espérance conditionnelle de X sachant σpY q, que l’on notera souvent ErX | Y s.
Citons un cas particulier. Supposons que Y prenne ses valeurs dans un ensemble dénombrable,
ř on suppose qu’il existe un ensemble dénombrble Y tel que PpY “ yq ą 0 pour tout
c’est-à-dire,
y P Y et yPY PpY “ yq “ 1. Alors
ÿ
ErX | Y s “ ErX | tY “ yus1tY “yu .
yPY
5 Modes de convergence
Soit E un espace métrique. Soit pXn qně1 une suite de v.a. à valeurs dans E muni de sa tribu
Borélienne. Soit également X une variable aléatoire à valeurs dans E.
Définition A.14
On suppose que toutes les v.a. sont définies sur un même espace de probabilité. On dit que Xn
converge en probabilité vers X si pour tout δ ą 0
PpdistpXn , Xq ą δq Ñ 0 , nÑ8.
79
Université Paris Cité
Probabilités
Définition A.15
On suppose que toutes les v.a. sont définies sur un même espace de probabilité. On dit que Xn
converge presque sûrement vers X si
PpdistpXn , Xq Ñ 0 , n Ñ 8q “ 1 .
Définition A.16
On suppose que toutes les v.a. sont définies sur un même espace de probabilité. Dans le cas où
E “ Rd , on dit que Xn converge dans Lp pΩ, F, Pq vers X si Xn , X P Lp et si
On introduit à présent une notion de convergence qui ne nécessite pas que les v.a. soient définies
sur un même espace de probabilité : en effet, cette notion de convergence porte sur les lois des v.a.
Définition A.17
On dit que Xn converge en loi vers X si pour toute fonction continue bornée f : E Ñ R
Proposition A.18
1. La convergence en probabilités implique la convergence en loi.
2. La convergence presque sûre (resp. Lp ) implique la convergence en probabilités.
3. La convergence en probabilités implique la convergence presque sûre le long d’une sous-suite.
80
Université Paris Cité
Annexe B
Uniforme intégrabilité
Commençons par rappeler que toute variable aléatoire intégrable Y sur pΩ, F, Pq satisfait (de par
le théorème de convergence dominée)
lim Er|Y |1|Y |ąa s “ 0 . (B.1)
aÑ8
Plus généralement :
Lemme B.1 (Uniforme continuité de l’intégrale)
Pour tout ε ą 0, il existe δ ą 0 tel que pour tout B P F
Soit pXi , i P Iq une collection (pas forcément dénombrable) de variables aléatoires à valeurs dans
R (ou Rd ).
Définition B.2
On dit que la famille pXi , i P Iq est uniformément intégrable si
La convergence (B.1) montre que toute variable aléatoire intégrable Y forme une famille (à un
élément) qui est u.i. Plus généralement, il est facile de vérifier que toute collection finie de v.a. intégrables
est uniformément intégrable.
81
Probabilités
Proposition B.3
La famille pXi , i P Iq est uniformément intégrable si et seulement si
1. supiPI Er|Xi |s ă 8
2. pour tout ε ą 0, il existe δ ą 0 tel que pour tout B P F
Er|Xi |1B s “ Er|Xi |1B 1|Xi |ďa s ` Er|Xi |1B 1|Xi |ąa s ď aPpBq ` Er|Xi |1|Xi |ąa s .
Pp|Xi | ą aq ď M {a ď δ ,
et 2. assure que
Er|Xi |1|Xi |ąa s ď ε .
l
Énonçons à présent deux critères assurant l’uniforme intégrabilité.
Proposition B.4
S’il existe Y dans L1 telle que pour tout i P I, p.s. |Xi | ď |Y | alors la famille pXi , i P Iq est
uniformément intégrable.
Proposition B.5
Soit g : R` Ñ R` une fonction telle que
gptq
lim “ `8 .
tÑ8 t
Si supiPI Ergp|Xi |qs ă 8 alors la famille pXi , i P Iq est uniformément intégrable. En particulier, si
82
Université Paris Cité
Probabilités
pXi , i P Iq est bornée dans Lp pour un certain p ą 1 alors elle est uniformément intégrable.
Démonstration Soient M :“ supiPI Ergp|Xi |qs et ε ą 0. Il existe a ą 0 tel que pour tout t ą a
on a
gptq M
ą .
t ε
On écrit alors pour tout i P I
ε ε
Er|Xi |1|Xi |ąa s ď Ergp|Xi |q1|Xi |ąa s ď Ergp|Xi |qs ď ε .
M M
l
Par la Proposition B.3, on sait que l’u.i. assure que pXn qn est bornée dans L1 , et ainsi X P L1 . On
fixe ε ą 0. On écrit
Par ailleurs, l’uniforme continuité de l’intégrale assure que pour tout n assez grand
Er|X|1t|Xn ´X|ąεu s ď ε .
l
On conclut avec un résultat d’uniforme intégrabilité qui sera utilisé à plusieurs reprises dans le
cours.
Proposition B.7
Soit X une variable aléatoire intégrable. Soit pFi qiPI une collection de sous-tribus de F et soit
Xi :“ ErX | Fi s pour tout i P I. Alors la famille pXi , i P Iq est uniformément intégrable.
|Xi | ď Er|X| | Fi s ,
83
Université Paris Cité
Probabilités
et ainsi
sup Er|Xi |s ď sup ErEr|X| | Fi ss “ Er|X|s ă 8 .
i i
Ainsi pXi , i P Iq est bornée dans L1 . Par ailleurs l’événement t|Xi | ą au est Fi mesurable et ainsi
L’uniforme continuité de l’intégrale assure que pour tout ε ą 0 il existe δ ą 0 tel que
PpAq ă δ ñ Er|X|1A s ă ε .
Comme
1 1
sup Pp|Xi | ą aq ď sup Er|Xi |s ď Er|X|s .
i a i a
Il existe a ą 0 tel que
sup Pp|Xi | ą aq ă δ ,
i
et ainsi
sup Er|Xi |1t|Xi |ąau s ď ε .
i
84
Université Paris Cité
Annexe C
Soit pΩ, F, pFn qnPN , Pq un espace de probabilité filtré, c’est-à-dire, un espace de probabilité pΩ, F, Pq
muni d’une collection pFn qnPN de sous-tribus de F satisfaisant
F0 Ă F1 Ă . . . .
Quelques exemples : la marche aléatoire simple est une martingale ; la marche aléatoire biaisée
(proba p d’augmenter de 1 et 1 ´ p de diminuer de 1) est une sous-martingale lorsque p ě 1{2
et une sur-martingale lorsque p ď 1{2 ; pour toute collection de variables aléatoires indépendantes
intégrables pXk qkě0 le processus Mn “ X0 ` . . . ` Xn est une martingale dans la filtration Fn :“
σpX0 , . . . , Xn q pour peu que les pXk qkě0 soient d’espérance nulle.
Commençons par rappeler quelques propriétés simples.
Lemme C.2
Soient M une martingale (resp. une sous-martingale) et f : R Ñ R convexe (resp. convexe crois-
sante). On suppose que pour tout n P N, f pMn q est intégrable. Alors f pM q est une sous-martingale.
85
Probabilités
martingale).
Démonstration Tout d’abord |MnT | ď |M0 | ` . . . ` |Mn | et ainsi MnT est intégrable. Par ailleurs,
chaque variable Mk 1T “k est Fk -mesurable et ainsi la somme
n
ÿ
MnT “ Mk 1T “k ` Mn 1T ąn ,
k“0
l
Les martingales apparaissent dans de nombreux contextes, il est donc utile d’établir des résultats
généraux les concernant. Nous allons aborder trois thèmes :
1. les théorèmes d’arrêt, qui permettent d’évaluer ErMT s où T est un temps d’arrêt,
2. les inégalités maximales, qui fournissent des bornes sur la queue de probabilité du supremum
sup0ďkďn Mn d’une martingale (resp. sur-martingale, resp. sous-martingale),
3. les théorèmes de convergence, qui fournissent des informations sur le comportement asymp-
totique d’une martingale (resp. sur-martingale, resp. sous-martingale).
FT :“ tA P F : A X tT ď nu P Fn , @n P Nu .
où Bn P Fn . Cela justifie l’appellation “tribu du passé” car les événements ne peuvent pas s’appuyer
sur une information postérieure à T .
Théorème C.4 (Théorème d’arrêt borné)
Soit M une martingale (resp. une sous-martingale, resp. une sur-martingale). Soient S ď T deux
temps d’arrêt bornés, c’est-à-dire, tels qu’il existe m ě 0 tel que 0 ď S ď T ď m p.s. Alors MS , MT
86
Université Paris Cité
Probabilités
Démonstration On a |MT | ď |M0 | ` . . . ` |Mm | p.s., et ainsi MT est intégrable. De même pour
MS . Par ailleurs pour tout A P FS
m
ÿ
ErMT 1A s “ ErMT ^m 1A s “ ErMT ^m 1AXtS“ku s .
k“0
Ainsi
m
ÿ m
ÿ
ErMT 1A s “ ErMT ^k 1AXtS“ku s “ ErMS 1AXtS“ku s “ ErMS 1A s .
k“0 k“0
l
Nous verrons plus loin des conditions sur la martingale M assurant que cette égalité reste vraie
pour tous temps d’arrêt S ď T .
2 Inégalités maximales
Proposition C.5
— Si M est une sous-martingale alors pour tout a ą 0
— Si M est une sous-martingale alors le théorème d’arrêt borné appliqué aux temps d’arrêt
T ď n assure que
et ainsi
aPp sup Mk ą aq ď ErMn 1sup0ďkďn Mk ąa s ď ErMn` s .
0ďkďn
87
Université Paris Cité
Probabilités
— Si M est une sur-martingale alors le théorème d’arrêt borné appliqué aux temps d’arrêt 0 ď T
assure que
ErM0 s ě ErMT s ě aPp sup Mk ą aq ` ErMn 1sup0ďkďn Mk ďa s ,
0ďkďn
et ainsi
Démonstration On va prouver une propriété plus générale. Soit X une sous-martingale positive
et soit X̃n :“ sup0ďkďn Xk . Pour tout p ą 1 et tout n P N
´ p ¯p
ErpX̃n qp s ď ErXnp s .
p´1
Une fois cette propriété établie, il suffit de prendre Xn “ |Mn | pour déduire le résultat.
On peut supposer que ErXnp s ă 8 car sinon il n’y a rien à montrer. Comme x ÞÑ xp est convexe
croissante sur R` , X p est toujours une sous-martingale positive et on en déduit que ErXkp s ă 8
pour tout 0 ď k ď n, puis que pour une constante Cp ą 0
´ ¯
ErpX̃n qp s ď ErpX0 ` X1 ` . . . ` Xn qp s ď Cp ErX0p s ` . . . ErXnp s ă 8 .
En multipliant chaque membre de cette inégalité par ap´2 et en intégrant par rapport à la mesure
de Lebesgue sur r0, 8r on obtient
ż8
1
ap´1 Pp sup Xk ą aqda “ ErpX̃n qp s ,
0 0ďkďn p
ainsi que
ż8
1 1 p´1
ap´2 ErXn 1sup0ďkďn Xk ąa sda “ ErXn pX̃n qp´1 s ď ErpXn qp s1{p ErpX̃n qp s p .
0 p´1 p´1
Ainsi
1 1 p´1
ErpX̃n qp s ď ErpXn qp s1{p ErpX̃n qp s p ,
p p´1
et l’inégalité voulue en découle. l
88
Université Paris Cité
Probabilités
3 Convergence de martingales
La preuve du résultat suivant est assez longue, nous ne la rappellerons pas et nous renvoyons
vers [LG06, Th 12.3.3].
Théorème C.7
Soit M une martingale (resp. sous-martingale, resp. sur-martingale) bornée dans L1 , c’est-à-dire,
telle que supnPN Er|Mn |s ă 8. Alors Mn converge presque sûrement vers une variable aléatoire
intégrable M8 .
On notera qu’il suffit de prouver le résultat pour une sous-martingale : en effet, si M est une sur-
martingale bornée dans L1 alors ´M est une sous-martingale bornée dans L1 .
Il se trouve qu’en général cette convergence n’a pas lieu dans L1 . Considérons l’exemple suivant. Soit
S la marche aléatoire simple issue de 1 et T :“ inftn P N : Sn “ 0u son premier temps d’atteinte de
0. On notera que T ă 8 presque sûrement mais que T n’est pas borné. Par un résultat précédent,
le processus Mn “ ST ^n est une martingale et l’on a
ErMn s “ ErM0 s “ 1 .
Etant positive, la martingale arrêtée M est alors bornée dans L1 . On en déduit qu’elle converge
p.s. vers une variable aléatoire intégrable M8 . Or pour tout k P N et pour tout n ě k
Mn 1T “k “ ST ^n 1T “k “ 0 .
4 Martingales fermées
L’objectif de cette section est double. Tout d’abord, on souhaiterait trouver des conditions sur une
martingale sous lesquelles le théorème d’arrêt est encore vrai pour des temps d’arrêt quelconques
(pas forcément bornés). Par ailleurs, on souhaiterait trouver des conditiones sous lesquelles la
convergence p.s. du théorème précédent a également lieu dans L1 . Il se trouve que dans les deux
cas, la notion de martingale fermée joue un rôle prépondérant.
Définition C.8
On dit qu’une martingale M est fermée s’il existe une v.a. X P L1 telle que pour tout n P N
Mn “ ErX | Fn s .
Théorème C.9
Il y a équivalence entre :
(i) M est fermée
(ii) M est uniformément intégrable.
(iii) M converge p.s. et dans L1 vers une variable aléatoire M8 intégrable.
Si l’une des trois conditions est vérifiée, alors nécessairement M est fermée par sa limite M8 .
89
Université Paris Cité
Probabilités
On notera que la condition de martingale fermée est nécessaire et suffisante pour que la convergence
p.s. du théorème vu précédemment soit renforcée en une convergence L1 !
Démonstration (i) ñ (ii). C’est une conséquence de la Proposition B.7.
(ii) ñ (iii). Etant u.i., la suite pMn , n P Nq est bornée dans L1 . Comme c’est en outre une martingale,
elle converge p.s. vers une variable aléatoire intégrable M8 . Le théorème de convergence dominée
optimal, Théorème B.6, montre alors que Mn converge aussi dans L1 vers M8 .
(iii) ñ (i). Pour tout A P Fn , on a
ErMn 1A s “ ErMn`k 1A s .
ErMn`k 1A s Ñ ErM8 1A s ,
MT “ ErM8 | FT s .
MS “ ErMT | FS s .
La première propriété se prouve comme suit. Supposons que pour tout n P N Y t8u
Alors p.s.
ErM8 | FT s1tT “nu “ ErM8 | Fn s1tT “nu “ Mn 1tT “nu “ MT 1tT “nu ,
et comme cela est vrai pour tout n P N Y t8u, on en déduit que MT “ ErM8 | FT s.
Il nous faut donc prouver l’identité ci-dessus. Pour cela, on commence par prouver que le produit
d’une v.a. X FT mesurable par 1tT “nu est Fn mesurable. En effet pour tout Borélien B ne contenant
pas 0, du fait que tX P Bu P FT on a
tX1tT “nu P Bu “ tX P Bu X tT “ nu P Fn .
90
Université Paris Cité
Probabilités
91
Université Paris Cité
Probabilités
92
Université Paris Cité
Bibliographie
[cn11] E. Çınlar. Probability and stochastics, vol. 261 of Graduate Texts in Mathematics.
Springer, New York, 2011, xiv+557. doi:10.1007/978-0-387-87859-1.
[ELVE19] W. E, T. Li, and E. Vanden-Eijnden. Applied stochastic analysis, vol. 199 of Graduate
Studies in Mathematics. American Mathematical Society, Providence, RI, 2019, xxi+305.
doi:10.1090/gsm/199.
[KS91] I. Karatzas and S. E. Shreve. Brownian motion and stochastic calculus, vol. 113 of
Graduate Texts in Mathematics. Springer-Verlag, New York, second ed., 1991, xxiv+470.
doi:10.1007/978-1-4612-0949-2.
[LG06] J.-F. Le Gall. Intégration, probabilités et processus aléatoires, 2006. URL https:
//www.imo.universite-paris-saclay.fr/~jean-francois.le-gall/IPPA2.pdf.
[LG13] J.-F. Le Gall. Mouvement brownien, martingales et calcul stochastique, vol. 71 of
Mathématiques & Applications (Berlin) [Mathematics & Applications]. Springer, Hei-
delberg, 2013, viii+176. doi:10.1007/978-3-642-31898-6.
[RY99] D. Revuz and M. Yor. Continuous martingales and Brownian motion, vol.
293 of Grundlehren der mathematischen Wissenschaften [Fundamental Principles
of Mathematical Sciences]. Springer-Verlag, Berlin, third ed., 1999, xiv+602.
doi:10.1007/978-3-662-06400-9.
[Sal22] J. Salez. Introduction to stochastic calculus, 2022. URL https://www.ceremade.
dauphine.fr/~salez/stoc.pdf.
93