Master: AMA: Polycopié de Cours: Equations Différentielles Stochastiques, Approximations Et Estimation
Master: AMA: Polycopié de Cours: Equations Différentielles Stochastiques, Approximations Et Estimation
estimation
Master : AMA
Réalisée par :
Prof. Hamid El Maroufy
Années universitaires :
2019/20
Table des matières
Introduction 4
4 Espérance conditionnelle 5
4.1 Espérances conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4.2 Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4.3 Cas générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.4 Espérance conditionnelle par rapport à une variable . . . . . . . . . . . . . . . . . 16
4.5 Dépendance et indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.6 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2
Université Sultan Moulay Slimane FSTBM Département de Mathématiques
Bibliographie 43
Le présent cours est destiné aux étudiants du Master AMA. Il consiste à étudier principale-
ment les équations différentielles stochastiques (EDS) leurs approximations numériques et l’es-
timation paramétrique. Il comporte quatre chapitres qui sont structurés comme suit : le sisième
chapitre présente quelques résultats préliminaires et outils nécessaires des processus stochas-
tiques à temps continu tels que les temps d’arrêts, les martingales à temps continu et les proces-
sus Brownien. Dans le chapitre 7, on étudie certaines notions fondamentales d’intégrales d’Itô
et les équations stochastiques différentielles d’Itô. Nos nous intéressons à l’existence et l’unicité
de la solution. Le chapitre 8 s’intéresse à certains schémas d’approximations des EDS notam-
ment les schémas d’Euler et de Milstein. Finalement, dans le chapitre 9 on construit la fonction
de vraisemblance d’un processus d’Itô gouverné par une EDS, et ce en utilisant le théorème de
Girsanov. .
4
Chapitre 4
Espérance conditionnelle
De nos jours, le calcul des probabilités est certainement l’une des branches les plus récentes
des mathématiques. Ce projet touche l’une des aspects de cette discipline à savoir les Espérances
Conditionnelles et les Martingales. Cette riche notion nécessite des connaissances puissantes
dans la théorie de mesure et d’intégration.
Ce document est organisé de la manière suivante : le premier chapitre est consacré à l’étude des
espérances conditionnelles. Le deuxième chapitre nous nous intéressons à étudier la notion de
Martingales à temps discret et leurs propriétés. Ensuite, dans le troisième chapitre nous citons
quelques résultats fondamentaux qui seront utiles dans ce document. Et nous terminerons, par
une conclusion dans laquelle nous citons le bilan des connaissances acquises durant ce travail.
Définition 4.1.
Soient (Ω, F , P) un espace de probabilité, et B ∈ F . On définit la probabilité conditionnelle d’un
événement A ∈ F sachant B par
P(A ∩ B)
P(B) ; si P(B) > 0
P(A|B) =
0 ; sinon.
Proposition 4.2.
Soit X une variable aléatoire réelle sur (Ω, F , P) avec X ∈ L1 (Ω, F , P).
L’espérance conditionnelle de X sachant B est donnée par
5
Université Sultan Moulay Slimane FSTBM Département de Mathématiques
Z Z
1
E(X|B) = XdP(.|B) = XdP; (4.1)
Ω P(B) B
la formule (4.1) se vérifie d’abord sur les variables aléatoires indicatrices et étagées puis on
passe à la limite.
Définition 4.3.
Une famille d’événements (Bi )i∈I , I ⊂ N est dite complète si les (Bi )′ s sont disjoints deux à deux,
[ X
P(Bi ) > 0, ∀i ∈ I et P Bi = P(Bi ) = 1.
i∈I i∈I
Définition 4.4.
Soit B une sous-tribu dans F engendrée par une famille complète d’événements (Bi )i∈I , I ⊂ N. On
appelle probabilité conditionnelle de A ∈ F sachant B = σ(Bi , i ∈ I) la variable aléatoire
X
P(A|B) = P(A|Bi )χBi . (4.2)
i∈I
Ainsi, donc
X
E(χA |B) = P(A|B) = E(χA |Bi )χBi . (4.4)
i∈I
Puisque E(χA |Bi ) = P(A ∩ Bi ) ∈ R, ceci montre que la probabilité conditionnelle de A sachant
B, ce n’est qu’une fonction étagée.
En générale, pour une variable aléatoire quelconque X, on a la définition suivante :
Définition 4.5.
Soient B = σ(Bi , i ∈ I) avec (Bi )i∈I une famille complète et X une variable aléatoire telle que X ∈
L1 (Ω). On définit l’espérance conditionnelle de X sachant B par
E(X|B) : Ω −→ R
c’est à dire
X
E(X|B) = E(X|Bi )χBi . (4.5)
i∈I
Proposition 4.6.
L’application E(X|B) vérifie les propriétés suivantes :
Preuve :
X
= E(XχBj ) = E(Xχ S Bj )
j∈J
j∈J
Z
= E(XχB ) = XdP.
B
Et puisque X ∈ L1 (Ω), alors E(X|B) ∈ L1 (Ω). Par suite ii− est démontrée.
Exemple 4.1.
Z ! Z !
c 1 1
➀ E(X|{∅, B, B , Ω}) = XdP χB + c)
XdP χBc .
P(B) B P(B Bc
➁ Soit X une variable aléatoire sur (Ω, F , P) suivant une loi de Poisson de paramètre λ > 0 et
X
posons Y = 2 . Calculer l’espérance conditionnelle E[X|σ(Y )].
2
Discussion
Considérons la famille des Bn = {Y = 2n}, n ≥ 0
= {ω ∈ Ω, Y (ω) = 2n}, n ≥ 0.
On remarque que σ(Y ) = σ(Y −1 ({2n}), n ∈ N) = σ(Bn , n ≥ 0),
\ [
on a aussi Bn Bm = ∅ et Bn = Ω. Donc
n,m n∈N Z
X (4.1) X
E(X|σ(Y )) = E(X|σ(Bn , n ∈ N)) = E(X|Bn )χBn . On sait que E(X|Bn ) = dP =
Bn P(Bn )
R n∈N
Bn
XdP
.
P(Bn )
On a
Z Z Z
XdP = XdP + XdP
Bn [X=2n] [X=2n+1]
= 2nP(X = 2n) + (2n + 1)P(X = 2n + 1)
λ2n exp(−λ) λ2n+1 exp(−λ)
= 2n + (2n + 1)
(2n)! (2n + 1)!
2n
λ exp(−λ)
= (2n + λ) .
(2n)!
et on a aussi,
Par conséquent,
Ainsi,
(4.5) X
E(X|σ(Y )) = E(X|Bn )χBn
n∈N
X (2n + λ)(2n + 1)
= χ[Y =2n] .
2n + 1 + λ
n∈N
(Y + 1)(Y + λ)
Finalement, E(X|σ(Y )) = = g(Y ), cette dernière s’appelle espérance condi-
Y +1+λ
tionnelle de X sachant Y i.e E(X|Y ) avec X et Y sont discrètes.
Définition 4.7.
Une variable aléatoire Y est appelée espérance conditionnelle de X sachant B, i.e Y = E(X|B) si
i- Y est B-mesurable.
Théorème 4.8.
E(X|B) existe et unique presque sûrement.
Preuve :
Pour montrer l’unicité considérons les deux variables aléatoires Y1 et Y2 vérifiant i- et ii- de la
Définition 4.7
[
Y ,Y2 Y ,Y2
Puisque [Y1 < Y2 ] = Aa,b1 où Aa,b1 = {ω ∈ Ω, Y1 ≤ a < b ≤ Y2 } qui est un événement de B
a,b∈Q
Y ,Y2
car Y1 et Y2 vérifient la propriété i- dans la définition 4.7. Il suffit de montrer que Aa,b1 soit
négligeable pour a < b.
Z Y ,Y Y ,Y
Y ,Y2
Y1 dP ≤ aP Aa,b1 2 ≤ bP Aa,b1 2
Aa,b1
Z
≤ Y ,Y2
Y2 dP.
Aa,b1
Z Y ,Y
Y ,Y
Or, (b − a)P Aa,b1 2 ≤ Y ,Y2
(Y2 − Y1 )dP = 0, d’où P Aa,b1 2 = 0, car b − a > 0.
Aa,b1
Finalement, P([Y1 < Y2 ]) = 0 ; c’est à dire que Y1 = Y2 presque sûrement. Posons, X + = X ∨ 0 et
X − = X + − X et définissons les deux mesures suivantes sur B :
Q ± (B) = E(X ± χB ), pour tout B ∈ B et considérons la restriction de P sur B, notée par PB .
Il est claire que Q ± ≪ PB , alors d’après le théorème de Radon-Nikodym, il existe deux variables
dQ+ dQ−
aléatoires Y + = et Y − = telles que Y + , Y − ∈ L1 (Ω, B) et
dPB dPB
Z Z Z
Q + (B) = X + dP = Y+ dPB = Y+ dP,
B B B
Z Z Z
Q − (B) = X − dP = Y− dPB = Y− dP.
B B B
D’après la Définition 4.7, il existe une unique variable aléatoire Y = Y + −Y − telle que : E(X|B) =
Y presque sûrement.
Théorème 4.9.
(iii) Si ϕ : R 7−→ R une application convexe et ϕ(X) est intégrable si X l’est aussi. On a l’inégalité
de Jensen :
ϕ [E(X|B)] ≤ E(ϕ(X)|B), P − p.s. (4.10)
Preuve :
Pour l’assertion i-, on voit que le terme est B-mesurable aussi E(aX + Y |B) est B-mesurable. De
plus, soit B ∈ B,
Pour montrer ii- Considérons l’événement A = [E(Y |B) < E(X|B)]. A est un événement de B,
du fait que E(X|B) et E(X|B) sont B-mesurables. Posons Aa,b = [E(X|B) ≤ a < b ≤ E(Y |B)] ∈ B et
[
A= Aa,b .
a,b∈Q
On a
Z
(b − a)P Aa,b = (b − a)dP
Aa,b
Z
≤ [E(Y |B) − E(X|B)]dP
Aa,b
Z
(4.8)
= [E(Y − X)|B]dP
Aa,b
Z
= (Y − X)dP.
Aa,b
Puisque b − a > 0, alors P Aa,b = 0 d’où P(A) = 0.
Finalement, E(X|B) ≥ E(Y |B) presque sûrement. Jensen conditionnel avec tes notations : E(φ(X)|B) ≥
On prend alors φ = (ϕq )q∈R T Q = (ϕq )q∈Q . L’application x 7−→ sup(x) est convexe continue et
f ∈φ
coïncide avec ϕ sur Q, donc par densité et continuité
sur R.
Au premier lieu considérons le cas où X et Y sont positives. Pour tout n ∈ N, posons Yn =
2−n [2n Y ]. On sait que Yn ր Y , alors Yn E(X|B) −→ Y E(X|B), en croissant quand n −→ +∞. Le
théorème de convergence monotone implique que pour B ∈ B
D’autre part
+∞
X
−n
E (χB Yn E(X|B)) = E χB E(X|B)χ[Yn =k2−n ] × k2
k=1
+∞ h
X i
= E χB χ[Yn =k2−n ] × k2−n E(X|B)
k=1
+∞ h
X i
= E χB∩[Yn =k2−n ] k2−n E(X|B)
k=1
+∞
X h i
= k2−n E χB∩[Yn =k2−n ] E(X|B) .
k=1
Or, B ∈ B et [Yn = k2−n ] ∈ B, car Y est B-mesurable. Donc par application du Théorème de
convergence monotone.
+∞
X h i
E (χB Yn E(X|B)) = k2−n E χB∩[Yn =k2−n ] E(X|B)
k=1
+∞
X h i
= k2−n E χB∩[Yn =k2−n ] X
k=1
+∞
X
= E k2−n χB χ[Yn =k2−n ] X
k=1
= E(χB Yn X) −−−−−−→ E(χB Y X) (4.15)
n→+∞
Puisque l’espérance conditionnelle est unique presque sûrement (Théorème 4.8), alors
Ainsi, l’assertion v- est démontrée. Pour montrer vi- il suffit de prendre B = Ω ∈ B, alors
E (E(X|B)) = E(X).
Proposition 4.10.
p.s
E(Xn |B) −−−−−−→ E(X|B).
n→+∞
Lp Lp
iv- Si Xn −−−−−−→ X, alors E(Xn |B) −−−−−−→ E(X|B) pour p ≥ 1.
n→+∞ n→+∞
Preuve :
= E(E(X)χB ).
Puisque E(X|B) est B-mesurable, alors E(X|B) = E(X) presque sûrement, d’où l’assertion
i-.
L’assertion ii- dans le théorème ?? entraine que E(Xn |B) est une suite croissante de varaibles
aléatoires B-mesurable. Utilisons le théorème de convergence dominée, pour B ∈ B,
Z Z ! Z !
lim E(Xn |B)dP = lim E(Xn |B)dP = lim Xn dP
B n→+∞ n→+∞ B n→+∞ B
Z Z Z
= lim Xn dP = XdP = E(X|B)dP.
B n→+∞ B B
D’après le théorème d’unicité, on a lim E(Xn |B) = E(X|B) presque sûrement. Ainsi ii-
n→+∞
est démontrée.
p.s
Pour établir iii- définissons Zn = sup |Xk − X|. Puisque |Xn | ≤ Y et Xn −−−−−−→ X
k≥n n→+∞
p.s
on a 0 ≤ Zn < 2Y presque sûrement. Et Zn −−−−−−→ 0 et Y ∈ L1 (Ω, F , P),
n→+∞
en utilisant le théorème de convergence dominée on a E(Zn ) −−−−−−→ 0.
n→+∞
D’après le Lemme de Fatou
!
E(Zn ) ≤ E sup |Xk − X| ≤ sup E(|Xk − X|) −−−−−−→ 0.
k≥n k≥n n→+∞
L1
De plus E(Xn |B) ∈ L1 et X ∈ L1 , d’où E(Xn |B) −−−−−−→ E(X|B).
n→+∞
Maintenant posons Z = lim E(Zn |B), puisque Zn est positive, alors E(Zn |B) est positive.
n→+∞
De plus Zn ≤ 2Y presque sûrement. Par suite |E(Zn |B)| ≤ E(2Y |B) = 2E(Y |B) presque
sûrement.
(??)
Or, E(E(Y |B)) = E(Y ) < ∞. D’où en utilisant le théorème de convergence dominée
E(Z) = E lim E(Zn |B) = lim E (E(Zn |B))
n→+∞ n→+∞
(??)
= lim E (E(Zn ))
n→+∞
(T h.??)
= E lim E(Zn ) = 0.
n→+∞
Finalement, E(Z) = 0, donc Z = 0 presque sûrement, par suite lim E(Zn |B) = 0 presque
n→+∞
sûrement. De plus
(4.8)
|E(Xn |B) − E(X|B)| ≤ E(|Xn − X| |B)
p.s
≤ E(Zn |B) −−−−−−→ 0.
n→+∞
Lp
Supposons que Xn −−−−−−→ X, i.e X ∈ L, X ∈ L et lim E(|Xn − X|p ) = 0, de (??) on peut
n→+∞ n→+∞
p
simplement vérifier que E(Xn |B) ∈ L .
et E(X|B) ∈ Lp .
Soit Y une variable à valeurs dans R et σ(Y ) = σ(Y −1 (A), A ∈ B(R)), où B(R) est la tribu
Borélienne. Pour X une variable aléatoire intégrable, on définit l’espérance conditionnelle de X
sachant Y par
E(X|Y ) = E(X|σ(Y )). (4.16)
Le principe de conditionnement s’étend des espérances aux lois. Cette extension s’appuie sur le
résultat suivant connu sous le nom de Lemme de Doob.
Preuve :
⇐=) Si X = h(Y ), avec h est B(R)-mesurable, alors X est σ(Y )-mesurable.
=⇒) D’après la définition d’une variable aléatoire X est σ(Y )-mesurable étagée est de la forme :
X X
X= ai χY −1 (Bi ) = ai χBi ◦ Y , ∀Bi ∈ B(R), où la somme est finie, les Bi ’s sont des boréliens et
i X i X
ai ≥ 0 ; X = ( ai χBi ) ◦ Y = h ◦ Y avec h = ai χBi . Supposons que X est une variable aléatoire
i i
positive X = lim (hn ◦ Y ) avec hn est borélienne positive étagée, convergente en tout point de
n→+∞
Y (Ω), l’image de Y . Posons, donc, h = lim hn , ainsi lim (hn ◦ Y ) = X. D’où h ◦ Y = X.
n→+∞ n+∞
Corollaire 4.12.
Soient X et Y deux variables aléatoires réelles sur (Ω, F , P) telle que X est intégrable. Alors
Z = E(X|Y ) si et seulement si Z = h(Y ) avec, h est B(R)-mesurable et bornée.
Proposition 4.13.
Soient X une variable aléatoire à valeurs dans R, et B une sous-tribu de F , alors X et B sont
indépendantes si et seulement si pour tout t ∈ R,
Preuve :
=⇒) X et B sont indépendantes, alors exp(itX) et B sont indépendantes
Par suite l’assertion i- de la Proposition 4.10, entraine que E(exp(itX)|B) = E(exp(itX) presque
sûrement.
⇐=) Soit Z est B-mesurable. Pour tout t ∈ R et s ∈ R, considérons les fonctions caractéristiques
Proposition 4.14.
Soit B une sous-tribu de F et X et Y deux variables aléatoires à valeurs dans R. On suppose que X
est B-mesurable et que Y est indépendante de B, alors pour toute h mesurable bornée sur R2
Preuve :
Considérons Z une variable aléatoire positive B-mesurable. Notons par PY et PX,Z les lois de Y
et de (X, Z). Z
On a φ(x) = E [h(x, Y )] = h(x, y)dPY . Donc, d’après le théorème de Transfert (Théorème ??).
Z Z "Z #
E(Zh(X, Y )) = zh(x, y)dPX,Z = z h(x, y)dPX,Z dPY
Z "Z #
= z h(x, y)dPY (y) dPX,Z (x, z)
Z
= φ(x)dPX,Z(x, z) = E(Zφ(X)).
Pour Z = χB avec B ∈ B. On a E [χB h(X, Y )] = E [χB φ(X)]. Or, φ(X) est B-mesurable. La
définition 4.7 et le théorème d’unicité entraine que φ(X) = E(h(X, Y )|B) presque sûrement.
Corollaire 4.15.
Avec les hypothèses de la Proposition 4.14 si X et Y sont indépendantes
on a
E(h(X, Y )|X = x) = E(h(x, Y ))presque sûrement. (4.17)
Les applications de ces deux résultats dans le calcul des lois conditionnelles sont nombreux.
Exemple 4.2.
➀ Soit Y une variables aléatoires qui prend un nombre au plus dénombrable (yi , i ∈ I)
avec, P(Y = yi ) > 0.
R
[Y =yj ]
XdP Z
Ainsi, E(X|Y = yj ) = = XdP(.|Y = yj ).
P(Y = yj ) Ω
P(.|Y = yj ) est la probabilité conditionnelle sachant Y = yj . Comme application, Soit
(X, Y ) un couple de variable aléatoire sur (Ω, F , P) à valeurs dans N2 de loi définie par :
n
λ exp(−λ)p k (1 − p)n−k
; si 0 ≤ k ≤ n.
P(X = n; Y = k) =
k!(n − k)!
0 ; sinon.
R 2ǫ R
R
xf (x, y)dx xf (x, y)dx
= = RR .
f Y (y) f (x, y)dx
R
Z
Lorsque f (x, y)dx > 0. Déterminons h(Y ) =? Considérons, pour cela C un borélien et
R
B = Y −1 (C). Alors
Z Z Z "Z #
h(Y )dP = h(y)f Y (y)dy = h(y) f(x, y)dy dx
Y −1 (C) Z C "Z #C Z Z R
Donc, d’après le Théorème 4.8 et la Définition 4.7 h(Y ) = E(X|Y ) presque sûrement.
Comme application, soient X et Y deux variables aléatoires de densité conjointe :
f (x, y) = 8xyχ]0,y[ (x), déterminons E(Y |X = x). On a d’après ce qui précède
R
yf (x, y)dy 2 1 + x + x2
h(x) = E(Y |X = x) = RR = , x ∈]0, 1[.
f (x, y)dy 3 1+x
R
2 1 + X + X2
D’où h(X) = E(Y |X) = .
3 1+X
Si on remplace dans les exemples précédentes X par φ(X) où φ est borélienne
bornée,on voit que :
Z
E(φ(X)|Y = yj ) = φ(X)dP(.|Y = yj ) . Pour tout Borélien B,
Ω
PX (.|Y = yj )(B)
R = P(X ∈ B|Y = yjZ), aussi avec les mêmes hypothèses sur φ on a
φ(x)f (x, y)dx f(x, y)dx
E(φ(X)|Y ) = RR = φ(X)K(Y , dx). Où, = K(y, dx) = R qui
R
f (x, y)dy R
f(x, y)dx
s’interprète comme la loi conditionnelle de X sachant Y = y.
f (x, y)
Il s’ensuit que la densité conditionnelle de X sachant Y = y est , où
Z f Y (y)
f Y (y) = f (x, y)dy est la densité marginale de Y . Cette formule permet le calcul
R
pratique des lois conditionnelles.
Définition 4.16.
On appelle transition, ou noyau de transition, toute fonction K : R × B(R) −→ [0, 1] telle que
Théorème 4.17.
Soient X et Y deux variables aléatoires dans (R2 , B(R2 ))P de loi P, où B(R2 )P la tribu borélienne
P-complète. Il existe un noyau de transition K tel que pour toute fonction φ borélienne bornée,
Z
E(φ(X)|Y ) = φdK(y, dx) presque sûrement.
Ω
Le nom “martingale 2 ”est synonyme de jeu équitable, c’est à dire d’un jeu où le gain que l’on
peut espérer faire, en tout temps ultérieur, est égal à la somme gagnée au moment présent.
Dans ce chapitre on considère uns suite (Xn , n ∈ N) de variables aléatoires définies sur un
même espace probabilité (Ω, F , P) .
5.1 Définitions
Définition 5.1.
On appelle filtration toute suite croissante (Fn )n∈N de sous-tribus de F (on pourra prendre pour F la
tribu, notée F∞ , engendrée par la famille (Fn )n∈N ). L’espace (Ω, F , (Fn )n∈N , P) s’appelle espace de
probabilité filtré.
Intuitivement, la tribu Fn contient tous les événements qui peuvent survenir avant l’instant n.
Elle est considérée comme étant, toutes l’information disposée jusqu’à l’instant t = n
Définition 5.2.
Toute suite de variables aléatoires réelles (Xn , n ∈ N) est appellé un processus stochastique à temps
discret. Ce processus est dit adapté à la filtration (Fn )n∈N si la variable aléatoire Xn est Fn -mesurable,
pour tout n ∈ N.
Définition 5.3.
2. Élément du harnachement du cheval consistant en une courroie de cuir reliant la sangle, soit à la muserolle
(martingale fixe), soit aux rênes (martingale à anneaux) et destinée à empêcher le cheval d’encenser ou de porter au
vent, en probabilité c’est méthode plus ou moins exacte, mise au point à partir de l’observation du rythme des gains
et des pertes au jeu, et grâce à laquelle le joueur espère assurer ou accroître ses gains
22
Université Sultan Moulay Slimane FSTBM Département de Mathématiques
Soit (Xn , n ∈ N) un processus stochastique définit sur l’espace de probabilité filtré (Ω, F , (Fn )n∈N , P).
Le processus est dit martingale s’il obeit aux trois propriétés suivantes :
Il est dit une sur martingale (sous martingale) si pour 0 ≤ m ≤ n, l’égalité ci-mentionnée est remplacé
par ≤ (≥).
Proposition 5.4.
Le processus (Xn , n ∈ N) est une martingale (une sur, sous martingale) si et seulement si
E(Xn − Xm |Fm ) = 0 ( ≤ 0 , ≥ 0), pour tout m ≤ n.
Preuve :
Supposons que (Xn , n ∈ N) est une martingale alors, la formule de conditionnement successifs
et la linéarité de l’éspérance conditionnelle entrainent que pour m ≤ n,
X X
E(Xn − Xm |Fm ) = E(Xk − Xk−1 |Fm ) = E(E(Xk − Xk−1 |Fk−1 )|Fm ) = 0. D’où
m+1≤k≤n m+1≤k≤n
l’implication.
Pour l’implication inverse supposons que tout m ≤ n, on a
E(Xn − Xm |Fm ) = E(Xn |Fm ) − E(Xm |Fm ) = 0. D’où, d’après la formule (4.11) E(Xn |Fm ) = Xm , ainsi
donc (Xn , n ∈ N) est une martingale. De la même façon on montre les autres résultats pour les
sur(sous)-matingales.
Remarque 5.1.
(i) Si (Xn , n ∈ N) est une martingale (sur, sous martingale), alors la suite déterministe
(E(Xn ))n∈N est constante (décroissante, croissante).
(ii) (Xn , n ∈ N) est une martingale si et seulement, si s E(Xn |Fn−1 ) = Xn−1 , pour n ∈ N∗ .
En effet : Puisque (Xn , n ∈ N) est une martingale, alors E(Xn |Fm ) = Xm , pour tout m ≤ n par suite
E(Xn |Fn−1 ) = Xn−1 , par application de l’opérateur espérance une deuxième fois on trouve que
E(E(Xn |Fn−1 )) = E(Xn ), alors E(Xn ) = E(Xn−1 ), ce qui implique que la suite (E(Xn ))n∈N est
constante. Si (Xn , n ∈ N) est une sous-martingale, par exemple, alors E(Xn |Fm ) ≥ Xm , ∀m ≤ n. Donc,
pour tout n ∈ N∗ , E(Xn |Fn−1 ) ≥ Xn−1 . En conséquence pour tout n ∈ N∗
E(Xn ) = E(E(Xn |Fn−1 )) ≥ E(Xn−1 ), c’est à dire que la suite (E(Xn ))n∈N est croissante. La
décroissance s’établie de la même manière.
Pour la remarque (ii), l’implication directe est triviale l’autre se vérifie de la manière suivante :
Exemple 5.1.
① Soient Z une variable aléatoire intégrable définie sur l’espace filtré (Ω, F , (Fn )n∈N , P) . La des
variables aléatoires Xn = E(Z|Fn ), n ∈ N est alors est une martingale.
② Soient Zn , n ≥ 1, une suite des variables aléatoires indépendantes sur (Ω, F , P), intégrables et
de moyenne µ. C’est-à-dire, ∀n ∈ N, E(Zn ) = µ.
Désignons par Fn la sous-tribu engendrée par Z1 , ...., Zn , i.e, Fn =σ(Z1 , ...., Zn ). on voit que
(Fn )n∈N est une filtration. Soit pour n ∈ N, la somme Xn = Z1 + .... + Zn . Alors (Xn , n ∈ N) est
une martingale (sur-martingale, sous-martingale) si µ = 0 (µ < 0, µ > 0).
Discussion :
= E(Z|Fm ) = Xm , car Fm ⊂ Fn ,
② Pour cet exemple, il suffit de remarquer que Xm est Fn -mesurable pour m ≤ n et que
Zn ⊥ Fn−1 ce qui entraine que
Si µ = 0, alors E(Xn |Fn−1 ) = Xn−1 ce qui montre que (Xn , Fn )n∈N est une martingale. Si
µ > 0, alors E(Xn |Fn−1 ) = Xn−1 + µ > Xn−1 et donc (Xn , Fn )n∈N est une sous-martingale.
Si µ < 0, alors E(Xn |Fn−1 ) = Xn−1 + µ < Xn−1 alors le processus sera une sur-martingale.
Une sous-martingale (sur-martingale) peut être vue comme une martingale à laquelle est
ajouté un processus croissant (décroissant). C’est un processus qui cumule les sauts de
sous-martingales ou sur-martingales.
De plus, ce processus monotone noté (Zn , n ∈ N) peut être pris non seulement adapté à (Fn )n∈N
mais aussi adapté à (Fn−1 )n∈N , par convention F−1 = (∅, Ω) c’est-à-dire la valeur de Zn peut être
prédite à l’instant n − 1.
Théorème 5.5.
Soit (Xn , n ∈ N) une sous-martingale. Il existe deux processus (Yn , n ∈ N) et (Zn , n ∈ N) uniques
presque sûrement tels que :
(iii)
Xn = Yn + Zn , ∀n ∈ N. (5.2)
Preuve
Une martingale est en moyenne constante et le processus (Zn , n ∈ N) doit cumuler les sauts de
la sous-martingale (Xn , n ∈ N). Ceci conduit à considérer les différences ∆n = Xn − Xn−1 , n ≥ 1.
Xn
Soit Z0 = 0, Y0 = X0 et pour tout n ≥ 1, on pose Zn = E(∆i |Fi−1 ) et Yn = Xn − Zn
i=1
Le processus Zn est croissant, en effet
n+1
X n
X
Zn+1 − Zn = E(∆i |Fi−1 ) − E(∆i |Fi−1 )
i=1 i=1
= E(∆n+1 |Fn )
1. Joseph doob 1910-2004, est un mathématicien Américain, l’un des fondateurs probabilistes de la théorie des
martingales. C’est lui qui a redémontré la loi forte de grand nombre en utilisant le théorème ergodique de Birkhoff.
La dernière égalité se déduite du fait que Zn est Fn−1 -mesurable et Zn−1 est Fn−2 -mesurable et
donc Fn−1 -mesurable. On vient de montrer donc que E(Yn |Fn−1 ) = Yn−1 , pour n ∈ N∗ par suite
(Yn , n ∈ N) est une martingale. Il reste à montrer l’unicité de la décomposition, supposons que
(Yn′ , n ∈ N) et (Zn′ , n ∈ N) deux processus stochastiques vérifiant (5.2), alors Z0 = Z0′ = 0 et
Y0′ = Y0 = X0 . Par récurrence, supposons que Zj′ = Zj et Yj′ = Yj , ∀j ≤ n. Alors
′ ′ ′
Zn+1 = E(Zn+1 |Fn ) = E(Xn+1 − Yn+1 |Fn ) (Zn′ est Fn−1 −mesurable)
′
= E(Xn+1 |Fn ) − E(Yn+1 |Fn )
= Yn + Zn+1 − Yn′ ,
Dans les égalités précentes on a utilisé le fait que Yn′ = (Yn , n ∈ N) est une martingale et Zn+1 est
′
Fn - mesurable. On en déduit que Zn+1 = Yn + Zn+1 − Yn′ , or par hypothèse de recurence Yn = Yn′ .
′ ′
Alors Zn+1 = Zn+1 , P presque sûrement. Par suite aussi Yn+1 = Yn+1 d’où l’unicité de la
décomposition.
Définition 5.6.
Sur (Ω, F , (Fn )n∈N , P) un espace de probabilité filtré, la variable aléatoire τ : Ω −→ N ∪ {∞} est
appelé un temps d’arrêt si l’on a (τ ≤ n) = {ω ∈ Ω, τ(ω) ≤ n} ∈ Fn , pour tout n ∈ N.
Remarque 5.2.
(i) On pourrait définir un temps d’arrêt τ comme étant une variable aléatoire à valeurs dans N
\
telle que : (τ = n) ∈ Fn En effet : (τ = n) = (τ ≤ n) (τ ≤ n − 1)c , et que (τ ≤ n) ∈ Fn et
(τ ≤ n − 1) ∈ Fn−1 ⊂ Fn . Cette seconde définition est spécifique au processus au processus
discret et ne se généralise pas convenablement au cas des processus stochastiques martingales
à temps continue (voir le chapitre suivant).
(ii) Si τ est un temps d’arrêt, on définit la tribu des événements antérieurs à τ en posant :
\
Fτ = {A ∈ F : A (τ ≤ n) ∈ Fn , pour tout n ∈ N}. On peut aisement vérifier que Fτ est une
tribu et que τ est Fτ -mesurable, cette tâche est laissé aux lecteurs comme un simple exercice.
Proposition 5.7.
Soient τ1 et τ2 deux temps d’arrêts et m ∈ N, alors on a les propriétés suivantes :
Preuve
Pour montrer l’assertion (i) il suffit de remarquer que (τ1 ∧ τ2 ≤ n) = (τ1 ≤ n) ∪ (τ2 ≤ n). qui est
un événement de Fn , du fait que (τ1 ≤ n) ∈ Fn et (τ2 ≤ n) ∈ Fn . De la même manière, on vérifie
que (τ1 ∨ τ2 ≤ n}) = (τ1 ≤ n) ∩ (τ2 ≤ n) ∈ Fn , l’autre est trivial. Soit A ∈ Fτ1 et montrons que
\ \ \
A ∈ Fτ2 . Puisque τ1 ≤ τ2 , donc A {τ2 ≤ n} = (A (τ1 ≤ n)) (τ2 ≤ n) ∈ Fn . En effet,
\
(A (τ1 ≤ n)) ∈ Fn et τ2 est un temps d’arrêt i.e, (τ2 ≤ n) ∈ Fn , ainsi A ∈ Fτ2 , la preuve de (ii) est
ainsi achevée.
Lemme 5.8.
Si (Xn , n ∈ N) est un processus stochastique si τ est un temps d’arrêt par rapport à la filtration
(Fn )n∈N , la variable aléatoire Xτ définie pour chaque résultat ω ∈ Ω par Xτ (ω) = Xτ(ω) (ω). Si
τ(ω) < ∞, alors Xτ est Fτ -mesurable.
Preuve
Soit B ∈ B1 telle que B1 est la tribu Boréliènne sur R, montrons que (Xτ ∈ B) = Xτ−1 (B) ∈ Fτ ,
c’est-à-dire montrons que (Xτ ∈ B) ∩ (τ ≤ n) ∈ Fn , ∀n ∈ N. On a (Xτ ∈ B) ∩ (τ ≤ n) = ∪nk=0 (Xk ∈ B,
τ = k) ∈ Fn , car (Xk ∈ B ; τ = k) ∈ Fk , c’est-à-dire qu’ils sont Fk -mesurables donc Fn -mesurables,
La réunion dénombrable est dans Fn . D’où (Xτ ∈ B) ∩ (τ ≤ n) ∈ Fn par suite (Xτ ∈ B) ∈ Fτ ,
finalement Xτ est Fτ -mesurable.
Définition 5.9.
On dit qu’un processus (Xn , n ∈ N) est un processus stochastique borné dans L1 si sup E(|Xn |) < ∞.
n∈N
On note L1M comme étant l’ensemble des processus stochastiques martingales et bornée dans L1 .
Ce sont des inégalités concernant les variables aléatoires max Xn , max |Xn |, sup Xn et sup |Xn |.
1≤n≤k 1≤n≤k n n
Théorème 5.10.
On a pour tout t > 0.
E(Xk )
P max Xn ≥ t ≤ . (5.4)
1≤n≤k t
Preuve :
Pour établir (i), considérons le temps d’arrêt τ = min{1 ≤ n ≤ k, Xn ≥ t} ou τ = k si cet ensemble
est vide. Si max Xn ≥ t, alors Xτ ≥ t et si max Xn < t, alors Xτ = Xk . On a alors
1≤n≤k 1≤n≤k
Z Z
E(Xk ) ≥ E(Xτ ) = Xτ dP + Xτ dP
( max Xn <t) max Xn ≥t
Z 1≤n≤k 1≤n≤k
≥ Xk dP + tP max Xn ≥ t .
max Xn <t 1≤n≤k
1≤n≤k
Z
Par conséquent, tP max Xn ≥ t ≤ Xk dP ≤ E(Xk ).
1≤n≤k max Xn ≥t
1≤n≤k
Pour montrer (ii) on considère
! le temps d’arrêt τ̃ = inf{n : Xn ≥ t} ou τ̃ = ∞ si l’ensemble est
vide. On a alors sup Xk > t = (τ̃ < +∞) et Xτ̃ > t sur l’ensemble (τ < +∞), et donc
k
Xn∧τ ≥ tχ(τ̃≤n) . On en déduit E(X0 ) ≥ E(Xn∧T ) ≥ tP(τ̃ ≤ n), faisons tendre n vers +∞,
E(X0 )
tP(τ̃ ≤ +∞) = tP(sup Xk ≥ t) ≤ E(X0 ). Donc P(sup Xk ≥ t) ≤ . Ainsi l’assertion (ii) est
k k t
démontrée.
Si sup Xn ≥ t alors Xτ ≥ t et si sup Xn < t, alors Xτ = ∞. Ainsi, puisque (Xn )n≥0 est une
n n ! Z
sur-martingale, alors E(X0 ) ≥ E(Xτ ). Par conséquent, tP sup Xn ≥ t ≤ ! Xτ dP ≤ E(X0 ).
n sup Xn >t
n
!
E(X0 )
D’où, P sup Xn ≥ t ≤ .
n t
Conséquences
Si(Xn , n ∈ N) est une martingale alors (|Xn |, n ∈ N) est une sous-martingale et donc ∀k ∈ N et
1
∀t > 0, P max |Xn | ≥ t ≤ E(|Xk |).
0≤n≤k t
Observons que la suite χ[t,∞[ max |Xn | est croissante et majorée par 1, et converge presque
0≤n≤k n∈N !
1
sûrement vers (χ[t,∞[ sup |Xn |), on en déduit que P sup |Xn | ≥ t ≤ sup E(|Xn |). En particulier
n∈N n∈N t n∈N
sup |Xn | < ∞, P presque sûrement. Si de plus Xn est de carré intégrable, alors (Xn2 , n ∈ N) est une
n∈N
sous-martingale. On retrouve, par le théorème précédent (Théorème 5.10), que
1
P max |Xn | ≥ t ≤ P max Xn2 ≥t 2
≤ E(Xk2 ).
1≤n≤k 1≤n≤k t2
Dans ce chapitre, nous présentons les notions de base pour les processus stochastiques à temps
continues qui seront utiles dans le présent cours. Toujours (Ω, F , P) un espace de probabilité et
T = [0, +∞[.
La famille X = (Xt , t ∈ T) est dite un processus stochastique à temps continue si pour t ∈ T, fixé,
la fonction
Xt : Ω → E
ω → Xt (ω)
est une variable aléatoire sur (Ω, F , P) à valeurs dans (E, B), E = R, Rd , d ∈ N ou plus
généralement E un espace métrique complet et séparable.
Quand T = N, la famille X = (Xt , t ∈ T) est dit un processus stochastique à temps discret. Pour
ω ∈ Ω, fixé, X(t, ω) = Xt (ω) s’appelle la trajectoire où la réalisation du processus qui correspond
au résultat ω.
Le processus stochastique X est dite continue à droite et admet une limite à gauche, enabrégé
cadlag, si pour tout ω ∈ Ω fixé, la fonction t −→ X(t, ω) = Xt (ω) est continue à droite et admet
une limite à gauche.
30
Université Sultan Moulay Slimane FSTBM Département de Mathématiques
où B(T) est la tribu borélienne constitué des sous-ensembles de T = [0, +∞[ (la restriction de B
sur T).
Xt : Ω −→ Ea
On peut vérifier simplement que la fonction φ X : ω → (Xt (ω), t ∈ T) définie sur (Ω, F , P) à
valeurs dans (ET , ⊗t∈T B) où ⊗t∈T B est la tribut produit et ET représente l’ensemble de toutes
les fonctions continues définies sur T en tout point de e à valeurs dans E
La valeur de probabilité PX définie sur ⊗t∈T B par ∀D̃ ∈ ⊗t∈T B
−1
PX (D̃) = P(φ X (D̃)), (6.2)
la mesure de probabilité définie en (6.2) appelée la loi du processus stochastique X = (Xt , t ∈ T),
on a le théorème suivant :
Théorème 6.2.
Soit (Xt , t ∈ T ) = X un processus stochastique Cad-lag, alors la loi PX de X est complètement
déterminée par la loi finie dimensionnelle suivante :
P(Xt
1
,Xt2 ,...,Xtn ) (D) = P((Xt1 , ..., Xtn ) ∈ D)), (6.3)
lim Ft1 ,...,tk ,tn (x1 , x2 , ..., xk , ..., xn ) = Ft1 ,t2 ,...tk ,..tn (x1 , ..., xk , xk+1 , ..., xn ). (6.4)
xk →+∞
Alors il existe un espace de probabilité telle (Ω̃, F˜ , P̃) et un processus stochastique X˜ = (X̃t , t ∈ T)
telle que
P(X̃t
1
,X̃t2 ,...,X̃tn ) (] − ∞, x1 ] × ...×] − ∞, xn ]) = Ft1 ,t2 ,...,tn (x1 , x2 , ..., xn ). (6.5)
Pour une preuve complète du théorème mentionné le lecteur pourrait consulter l’ouvrage de
Shiryaer [?].
Exemple 6.1.
① On rappelle que pour une variable aléatoire Z µ(µ, σ 2 ), sa densité est donnée par
−1
(x−µ)2
e 2σ 2
f µ,σ 2 (x) = √ , x ∈ R.
2πσ
Considérons la sequence des temps suivante : t0 < t1 < t2 < ... < tn et un vecteur x ∈ Rn et
considérons la fonction de densité de probabilité conjointe (la ”pddf") définie par
f t1 ,t2 ,...,tn (x) = f t0 ,t1 (x1 )f t0 ,t2 (x2 − x1 )...f t0 ,tn (xn − xn−1 ). (6.6)
Le processus stochastique dont la loi finie dimensionnelle donnée par la formule (6.7) s’appelle
un processus gaussien.
λx e −λ
Pλ (x) = , x ∈ N.
x!
Pour t1 < t2 < ... < tn , considérons la loi finie dimensionnelle suivante
6.1.2 Filtration
On appelle filtration toute collection des sous tribus de F , croissante Fs ⊆ Ft pours ≤ t. Ft est
interprété comme étant l’information fournie jusqu’à l’instant t ∈ T et on dit que l’espace
(Ω, F , (Ft )t∈T , P), est un espace de probabilité filtré. Un processus stochastique X = (Xt , t ∈ π)
sur (Ω, F , P) est dite adapté à la filtration (Ft )t∈T si ∀t ∈ T, Xt est Ft -mesurable. Pour simplifier,
un tel processus est noté par X = (Xt , Ft , t ∈ T), on dit parfois un processus non anticipatif.
Remarque 6.1.
(i) On peut interpréter l’adaptation, par Ft contient toute l’information sur Xt (ou extra
information).
(ii) Souvent, on rencontre les tribus de type Ft = σ(Xs , 0 ≤ s ≤ t) la plus petite sous tribu de F ,
rendant Xs , 0 ≤ s ≤ t mesurable ; engendrée par l’ensemble d’événements de type (a ≤ Xs ≤ b)
pour s ∈ [0, t] et a, b ∈ R(Q). C’est l’information disponible sur le processus X jusqu’à le
moment t. Elle s’appelle en générale, la tribut naturelle et (Ft )t∈T est la filtration naturelle.
Définition 6.4.
\
(i) Une filtration (Ft )t∈T est dite continue à droite si Ft + = Ft ou Ft + = Fs Cette continuité à
s>t
droite s’interprète comme suite : l’information fournie à l’instant t est la même que celle
fournie immédiatement juste après t.
(ii) Un processus stochastique X = (Xt , t ∈ T ) est dit progressivement mesurable si pour tout
t ∈ T et B ∈ B([0, t]) :
Exemple 6.2.
Définition 6.5.
Deux processus stochastiques X et X̃ définis respectivement sur deux espaces de probabilité (Ω, F , P)
et (Ω̃, F˜ , P̃) à valeur dans Rn , n ∈ N.
(i) Deux processus stochastiques sont dits faiblement équivalents s’ils ont les mêmes lois
finie-dimensionnelles dans ce sens. Pour, A1 , A2 , ..., An ∈ B(R), et pour
0 ≤ t1 ≤ t2 ≤ ... ≤ tn−1 ≤ tn < +∞ on
P(Xt
1
,Xt2 ,...,Xtn ) (A1 × A2 × ... × An ) = P̃(X˜t1 ,X˜t2 ,...,X˜tn ) (A1 × A2 × ... × An ), (6.10)
(ii) Si les deux processus sont définis sur le même espace (Ω, F , P), ils sont dits fortement
équivalents ( stochastiquement équivalent ). Si
P(Xt = X̃t ) = 1 pour chaquet ∈ Tou (Xt = X̃t ) = {w ∈ Ω, Xt (w) = X̃t (w)}, (6.11)
dans ce cas, on dit que l’un est une version( modification) de l’autre.
Exemple 6.3.
Soit Y est une variable aléatoire continue sur [0, 1] et Xt ≡ 0, ∀t > 0 et Yt = χ(t=Y ) .
Discussion :
(i) soit t ∈ T,
= 1 − P(t = T ) = 1 − PT ({t})
Z
= 1− f T (s)ds = 1.
{t}
d’où Xt et X̃t sont stochastiquement équivalents ; l’un est une version de l’autre.
= P(Y , t, 0 ≤ t ≤ ∞)
[
P(Y = t, pour au moins un, t ∈ [0, +∞[ = P (Y = t)
t∈[0,1]
= P (Y ∈ [0, 1])
d’où P(Xt = X̃t , 0 ≤ t ≤ +∞) = 0, par conséquent les deux processus stochastiques ne sont pas
indistinguables.
Dans la suite de ce chapitre nous aurons besoin de ce résultat dont la preuve est laissée à
l’étudiant.
Théorème 6.6.
Si un processus stochastique X = (Xt , t ≥ 0) et (Ft )t∈T est adapté, alors il est progressivement
mesurable.
Définition 6.7.
Un processus stochastique X = (Xt , t ∈ T) à valeur dans E = (R, Rd ) est dit continu
q
Dans LP (Ω) si limt→t0 E(kXt − Xt0 kq ) = 0.
(iv) presque surement au point t ∈ T s’il existe un événement Ω̃ ∈ F tel que P(Ω̃) = 1 et que
pour α, β, c constantes positives, alors il existe une version continue X̃ de X̃ telle qu’elle est localement
continue au sens de Hölder d’ordre γ ∈ (0, β/α),i.e.
kX̃ t − X̃ s k
P sup γ ≤ δ = 1,
0≤s,t≤h(x) |t − s|
Définition 6.9. Un processus stochastique est dit stationnaire si la loi finie-dimensionnelle reste
inchangée par rapport au temps t ∈ T ; pour une séquence 0 ≤ t1 ≤ t2 < ... < tn et ∆ > 0 ,
P(Xt
1
,Xt2 ,...,Xtn ) (D̃) = P(Xt1 +∆ ,Xt2 +∆ ,...,Xtn +∆ ) (D̃), (6.18)
pour tout borélien D̃ de Rn . il est est dit stationnaire au sens large si pour tout ∆ > 0 et t ∈ T, avec
E(Xt )2 < +∞.
E(Xt+∆ ) = E(Xt ) et E(Xt+∆ Xs+∆ ) = E(Xt Xs ). (6.19)
Définition 6.10.
Un processus X = (Xt , t ∈ T) est dit Markovien par rapport à la filtration (Ft )t∈T , si pour toute
fonction h boréliènne bornée sur E(R, Rd ), si pour s, t ∈ T
Une condition suffisante et nécessaire pour qu’un processus stochastique est établie dans le
théorème suivant :
Corollaire 6.12.
Le processus stochastique X = (Xt , t ∈ T) est Markovien si et seulement si pour tout B ∈ B(E)
Définition 6.13.
Un processus stochastique X = (Xt , t ∈ T) est dit une martingale s’il vérifie les trois conditions
suivantes :
(iii)
E(Xt /Fs ) = Xs , P − p.s pour 0 ≤ s ≤ t. (6.23)
Si l’égalité ci-dessus est remplacé par ≤ (≥), Il est dit une sur-martingale (sous-martingale).
Exemple 6.4.
Soit X une variable aléatoire sur (Ω, F , (Ft )t∈T , P) espace filtré, E|X| < +∞, alors le processus
stochastique Yt = E(X/Ft ), t ∈ T est une martingale.
Discussion :
On sait, d’après la définion de l’espérance conditionnelle, que Yt est Ft -mesurable et
E(|Yt |) = E(|E(X/Ft )|) ≤ E(E(|X|/Ft )) = E(|X|) < +∞ donc ∀t ∈ T, E(|Yt |) < +∞, de plus pour
0 ≤ s ≤ t < +∞,
(4.12) (4.12) P−p.s
E(Yt /Fs ) = E(E(X/Ft )/Fs ) = E(E(X/Fs )/Ft ) = E(X/Fs ) = Ys .
Ainsi que (Yt , t ∈ T) est une martingale. Yt s’appelle martingale régulière de Doob-Levy.
Comme leurs analogues, les martingales discrets, les martingales à temps discret sont à
moyennes constantes et une sous (sur) martingale est à moyenne croissante (décroissante).
Discussion :
Φ une fonction mesurable convexe définie de E vers E. Xt est Ft − martingale. Donc
E(Xt /Fs ) = Xs p.s pour 0 ≤ s ≤ t. Posons Yt = Φ(Xt )
(iii) Pour 0 ≤ s ≤ t, on a :
(4.10)
E(Yt /Ft ) = E(Φ(Xt )/Fs ) ≥ Φ(E(Xt /Fs ) = Φ(Xs ) = Ys
Définition 6.14.
Soit τ une variable aléatoire définie sur (Ω, F , (Ft )t∈T , P) à variables dans R dire que τ est un temps
d’arrêt par rapport à la filtration (Ft )t∈T si
Proposition 6.15.
Si la filtration (Ft )t∈T continue à droite alors τ est un temps d’arrêt si et seulement si pour tout
t ∈ T, (τ < t) ∈ Ft .
Preuve :
[ 1
Pour l’implication direct, il faut remarquer que (τ < t) = τ ≤ t − , conclure en tenant
n
n∈N∗
compte du fait que la filtration est croissante. Pour l’inplication l’inverse, on sait que
\ 1
(τ ≤ t) = {ω ∈ Ω, τ(ω) ≤ t} = τ < t + . En effet, si ω ∈ (τ ≤ t). Alors pour tout n ∈ N∗ ,
∗
n
n∈N
1 1 1
\ \
τ(ω) < t + , c’est à dire ω ∈ τ < t + . Ainsi (τ ≤ t) ⊆ τ < t + . Maintenant
n n n
n∈N∗ n∈N∗
1
supposons pour un ω fixé tel que τ(ω) < t + , ∀n ∈ N, en passant à la limite on trouve que
n
\ 1
τ(ω) ≤ t, par suite τ(ω) ≤ t} = τ<t+ .
n
n∈N∗
1
On pourrait établir l’égalité précédent, en remarquant que τ < t + est une suite
n n∈N∗
\ 1 1
décroissante d’événements, donc τ<t+ = lim τ < t + = (τ ≤ t). En conclusion,
∗
n n→+∞ n
n∈N
\ 1 \
(τ ≤ t) = (τ < t + ) ∈ Ft+ 1 = Ft + = Ft , car la filtration est continue à droite. Par
n n
n∈N∗ n∈N∗
conséquent τ est un temps d’arrêt.
Lemme 6.16.
Soit (τi )i∈N∗ une séquence de temps d’arrêt alors
(ii) si la filtration est continue à droite, alors : infi τi , limi supτi , limi infτi sont des temps d’arrêt.
Preuve :
On peut aussi voir que lim inf(τi ) est une temps d’arrêt, en effet
i
! +∞ [
1
[\
sup inf(τk ) > t = τk > t + ∈ Ft + ∈ Ft .
i k≥i ∗ ∗
m
i∈N k=i n∈N
Pour un temps d’arrêt τ par rapport à la filtration (Ft )t∈T , on définit la tribu
Fτ = A ∈ F , A ∩ (τ ≤ t) ∈ Ft , ∀t ∈ T
Remarque 6.2.
τ est Fτ -mesurable. En effet, (τ ≤ s) ∩ (τ ≤ t) = (τ ≤ s ∧ t) ∈ Fs∧t ⊂ Ft , donc (τ ≤ s) ∈ Fτ . D’où τ est
Fτ -mesurable.
Théorème 6.17.
Soit (τk )k∈N∗ une suite de temps d’arrêt par rapport à la filtration (Ft )t∈T supposée continue à droite .
\
Alors si τ = inf∗ τn on a Fτ = Fτn .
n∈N
n∈N∗
Preuve :
D’un coté, τ = infn∈N∗ (τn ) d’apres le Lemme ?? est un temps d’arrêt et que τ ≤ τn , ∀n ∈ N∗ . Alors
\ \
∀n ∈ N∗ , Fτ ⊂ Fτn , d’où Fτ ⊂ Fτn (voir, Exercice ??). Maintenant soit A ∈ Fτn , a-t-on
n∈N∗ n∈N
A ∈ Fτ ?. On a
[ [
A ∩ (τ 6 t) = A ∩ (τn ≤ t) = (A ∩ (τn ≤ t)) ∈ Ft
n∈N∗ n∈N∗
[ [ \ 1
= A (τn ≤ t − ) . (6.25)
∗ ∗
k
n∈N k∈N
Or A ∈ ∩n∈N∗ Fτn donc ∀n ∈ N∗ ; A ∈ Fτn , i.e A ∩ (τn ≤ t) ∈ Ft pour tout ∀n ∈ N et t ∈ T. Par suite
\ 1
A τn ≤ t − ∈ Ft− 1 ⊂ Ft , d’où A ∩ (τ ≤ t) ∈ Ft . Par conséquent donc A ∈ Fτ .
k k
Définition 6.18.
Soit X un processus stochastique et τ un temps d’arrêt défini sur {ω ∈ Ω, τ(ω) < +∞}, donc
Xτ (ω) = Xτ(ω) (ω) est une variable aléatoire . La variable aléatoire Xτ (ω) = Xτ(ω) (ω) si τ(ω) < +∞,
X+∞ (ω) est défini pour tout ω ∈ Ω. On pose Xτ (ω) = X∞ (ω) sur {ω ∈ Ω, τ(ω) = +∞}, dans ce cas
Xτ(ω) (ω), si τ(ω) < +∞
Xτ (ω) =
X (ω), si τ(ω) = +∞.
+∞
Proposition 6.19.
Soit X un processus stochastique progressivement mesurable et adapté et soit τ un temps d’arrêt par
rapport à la filtration (Ft )t∈T tel que τ < ∞. Alors la variable aléatoire Xτ est Fτ -mesurable et que le
processus stochastique (Xt∧τ , t ∈ T) est progressivement mesurable.
Preuve :
n o
Il suffit de montrer que ∀B ∈ B, Xτ−1 (B) = ω ∈ Ω, Xτ (ω) = Xτ(ω) (ω) ∈ B = (Xτ ∈ B) ∈ Fτ . Ceci
revient à montrer que pour tout t ∈ T, (Xτ ∈ B) ∩ (τ ≤ t) ∈ Ft , or
est Ft -mesurable. En effet pour B̃ = A × [0, s], on a{ω ∈ Ω, (ω, τ(ω) ∧ t) ∈ A × [0, s]} ∈ Ft car
(τ ∧ t ≤ s) = (τ ≤ s) ∪ (t ≤ s) ∈ Fs ⊂ Ft . En conséquence φ t est Ft mesurable.
Considérons aussi, la fonction :
Par suite en conbinant (6.27) et (6.28) avec (6.26), on déduit que pour tout t ∈ T,
(Xτ ∈ B) ∩ (τ ≤ t) ∈ Ft . D’où Xτ est Fτ -mesurable
ainsi Xτ est Ft -mesurable.
La continuité (à droite) est un concept important quand on veut étudier les premiers temps
d’entrés et de sortie d’un ensemble borélien, A ⊂ E. Dans cette section on suppose que E = R.
Définition 6.20.
Soit X = (Xt , t ∈ T), un processus stochastique défini sur (Ω, F , (F )t∈T , P). Pour A un borélien, on
1
définit le premier temps d’entrée (d’atteindre) A par le processus X par :
τA = inf{t ≥ 0; Xt ∈ A},
Exemple 6.6.
Soit X = (Xt , Ft , t ∈ T) un processus à valeurs réeelles et à trajectoires continues. Considérons, pour
a ∈ R fixé, τa = inf{t ≥ 0; Xt = a} le premier temps d’atteindre a. On peut vérifier simplement que τa
est un temps d’arrêt. En effet, la continuité du processus et le fait que (Xs , a) ∈ Fs ⊂ Ft pour s ≤ t,
entrainent que
[ [
(τa > t) = (∀s ∈ [0, t]; Xs < {a}) = (Xs , a) = (Xs , a) ∈ Ft .
s∈∩[0,t] s∈Q∩[0,t]
La proposition suivante est un outil pour construire des temps d’arrêt liés à des processus
stochastiques.
Proposition 6.21.
Supposons que le processus stochastique X est adapté à la filtration (Ft )t∈T .
(i) Supposons que les trajectoires de X soient continues à droite, et que O soit un sous-ensemble
ouvert de R ou de Rd (O =]a, b[), τO est un temps d’arrêt par rapport à (Ft + )t∈T .
(ii) Supposons que les trajectoires de X soient continues et F soit un sous-ensemble fermé de R ou
de Rd , (F =]a, b[), alors τF est un temps d’arrêt par rapport à (Ft )t∈T .
1. En anglais, τA is called the first hitting time of A (Intuitively : For all starting points the process X does not
hit A immediately, P − a.s)
2. En anglais, τ̃A is called the first exit time from A for X.
Preuve : La preuve est laissée à l’étudiant comme étant un devoir à la maison à rendre en
formats .Pdf et .tex avant le 30 mars 2020
Exemple 6.7.
Supposons que les hypothèses de la Proposition 6.21 sont vérifiés et de plus (Ft ) est continue à droite.
Alors τ[a,b] est un temps d’arrêt.
Discussion :
\ 1 1
\
Posons A = [a, b], A = a − ,b + = An . On a d’après la Proposition 6.21, τ]a− 1 ,b+ 1 [ est
n n n n
n∈N∗ n∈N∗
un temps d’arrêt car la filtration est continue à droite. Par suite, τ]a− 1 ,b+ 1 [ > t ∈ Ft , pour t ∈ T.
\ \ n n
Mais (τA ≥ t) = (τAn > t). Ainsi (τAn > t) ∈ Ft , d’où (τA ≥ t) ∈ Ft . Par conséquent
n∈N n∈N
(τA < t) ∈ Ft . La Proposition 6.15 entraine, puisque (Ft )t∈T est continue à droite, que τ[a,b] est un
temps d’arrêts.
[1] I. Karatzas et S.E. Shreve. : Brownian motion and stochastic calculus. Springer-Verlag,
Berlin.(1988).
[2] Peter E. Kloeden et Eckhard Platen, Numerical Solution of Stochastic Differential Equations.
Springer-Verlag Berlin Heidelberg GmbH.(1992).
[3] Søren Asmussen and Peter W. Glynn Stochastic Simulation : Algorithms and Analysis.
Springer.(2000).
[5] Stewart N. Ethier and Thomas G. Kurtz. Markov Processes : Characterization and
Convergence, Wiley. 2005.
[7] Revuz, D, York, M. Continuous Martingales and Brownian Motion. Springer-Verlag. 1979.
44