0% ont trouvé ce document utile (0 vote)
25 vues44 pages

Master: AMA: Polycopié de Cours: Equations Différentielles Stochastiques, Approximations Et Estimation

Ce document est un polycopié de cours sur les équations différentielles stochastiques, destiné aux étudiants du Master AMA. Il couvre des sujets tels que l'espérance conditionnelle, les martingales à temps discret et les processus stochastiques continus, tout en présentant des résultats préliminaires et des outils nécessaires. Les chapitres incluent des définitions, des propositions et des exemples pour illustrer les concepts abordés.

Transféré par

amkatv3
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
25 vues44 pages

Master: AMA: Polycopié de Cours: Equations Différentielles Stochastiques, Approximations Et Estimation

Ce document est un polycopié de cours sur les équations différentielles stochastiques, destiné aux étudiants du Master AMA. Il couvre des sujets tels que l'espérance conditionnelle, les martingales à temps discret et les processus stochastiques continus, tout en présentant des résultats préliminaires et des outils nécessaires. Les chapitres incluent des définitions, des propositions et des exemples pour illustrer les concepts abordés.

Transféré par

amkatv3
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Sultan Moulay Slimane

Faculté des Sciences et Techniques


Département de Mathématiques

Polycopié de cours : Equations différentielles stochastiques, approximations et

estimation

Master : AMA

Réalisée par :
Prof. Hamid El Maroufy

Années universitaires :
2019/20
Table des matières

Introduction 4

4 Espérance conditionnelle 5
4.1 Espérances conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4.2 Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4.3 Cas générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.4 Espérance conditionnelle par rapport à une variable . . . . . . . . . . . . . . . . . 16
4.5 Dépendance et indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.6 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

5 Martingale à temps discret 22


5.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2 Décomposition de Doob 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.3 Notion du temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.4 Les inégalités maximales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

6 Processus stochastique continue, notions de base 30


6.1 Définitions et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.1.1 Processus stochastique cadlag, mesurable et loi de probabilité Cadlag. . . . 30
6.1.2 Filtration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.1.3 Équivalence de deux processus stochastiques . . . . . . . . . . . . . . . . . 33
6.2 Processus stochastiques particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.2.1 Processus stochastique stationnaire . . . . . . . . . . . . . . . . . . . . . . . 36
6.2.2 Processus Markovien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.2.3 Martingales à temps continues . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.2.4 Processus à accroissements indépendants . . . . . . . . . . . . . . . . . . . 38

2
Université Sultan Moulay Slimane FSTBM Département de Mathématiques

6.3 Temps d’arrêt Markoviens (stopping times) . . . . . . . . . . . . . . . . . . . . . . 38


6.3.1 Temps d’entré (d’atteindre) de sortie d’un ensemble . . . . . . . . . . . . . 42

Bibliographie 43

Master : AMA 3 Pr. El Maroufy


Introduction

Le présent cours est destiné aux étudiants du Master AMA. Il consiste à étudier principale-
ment les équations différentielles stochastiques (EDS) leurs approximations numériques et l’es-
timation paramétrique. Il comporte quatre chapitres qui sont structurés comme suit : le sisième
chapitre présente quelques résultats préliminaires et outils nécessaires des processus stochas-
tiques à temps continu tels que les temps d’arrêts, les martingales à temps continu et les proces-
sus Brownien. Dans le chapitre 7, on étudie certaines notions fondamentales d’intégrales d’Itô
et les équations stochastiques différentielles d’Itô. Nos nous intéressons à l’existence et l’unicité
de la solution. Le chapitre 8 s’intéresse à certains schémas d’approximations des EDS notam-
ment les schémas d’Euler et de Milstein. Finalement, dans le chapitre 9 on construit la fonction
de vraisemblance d’un processus d’Itô gouverné par une EDS, et ce en utilisant le théorème de
Girsanov. .

4
Chapitre 4

Espérance conditionnelle

De nos jours, le calcul des probabilités est certainement l’une des branches les plus récentes
des mathématiques. Ce projet touche l’une des aspects de cette discipline à savoir les Espérances
Conditionnelles et les Martingales. Cette riche notion nécessite des connaissances puissantes
dans la théorie de mesure et d’intégration.
Ce document est organisé de la manière suivante : le premier chapitre est consacré à l’étude des
espérances conditionnelles. Le deuxième chapitre nous nous intéressons à étudier la notion de
Martingales à temps discret et leurs propriétés. Ensuite, dans le troisième chapitre nous citons
quelques résultats fondamentaux qui seront utiles dans ce document. Et nous terminerons, par
une conclusion dans laquelle nous citons le bilan des connaissances acquises durant ce travail.

4.1 Espérances conditionnelles

4.2 Cas particuliers

Définition 4.1.
Soient (Ω, F , P) un espace de probabilité, et B ∈ F . On définit la probabilité conditionnelle d’un
événement A ∈ F sachant B par

 P(A ∩ B)
 P(B) ; si P(B) > 0



P(A|B) = 



 0 ; sinon.

Proposition 4.2.
Soit X une variable aléatoire réelle sur (Ω, F , P) avec X ∈ L1 (Ω, F , P).
L’espérance conditionnelle de X sachant B est donnée par

5
Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Z Z
1
E(X|B) = XdP(.|B) = XdP; (4.1)
Ω P(B) B

la formule (4.1) se vérifie d’abord sur les variables aléatoires indicatrices et étagées puis on
passe à la limite.

Définition 4.3.
Une famille d’événements  (Bi )i∈I , I ⊂ N est dite complète si les (Bi )′ s sont disjoints deux à deux,
[  X
P(Bi ) > 0, ∀i ∈ I et P  Bi  = P(Bi ) = 1.
i∈I i∈I

Définition 4.4.
Soit B une sous-tribu dans F engendrée par une famille complète d’événements (Bi )i∈I , I ⊂ N. On
appelle probabilité conditionnelle de A ∈ F sachant B = σ(Bi , i ∈ I) la variable aléatoire
X
P(A|B) = P(A|Bi )χBi . (4.2)
i∈I

Cette probabilité conditionnelle est une variable aléatoire B-mesurable.


Pour Bj avec j ∈ I
Z XZ
P(A|B)(ω)dP = P(A|Bi )χBi (ω)dP
Bj i∈I Bj
Z
= P(A|Bj )P(Bj ) = P(A ∩ Bj ) = χA dP,
Bj

donc, d’après le théorème de Carathéodory (voir Appendice), on a


Z Z
∀B ∈ B, P(A|B)dP = P(A ∩ B) = χA dP. (4.3)
B B

Observons que l’on peut encore écrire que


X
P(A|B) = P(A ∩ Bi )χBi
i∈I
R 
X  B χA dP 
=  i  χ ,
P(Bi )  Bi
 
i∈I

Ainsi, donc
X
E(χA |B) = P(A|B) = E(χA |Bi )χBi . (4.4)
i∈I

Master : AMA 6 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Puisque E(χA |Bi ) = P(A ∩ Bi ) ∈ R, ceci montre que la probabilité conditionnelle de A sachant
B, ce n’est qu’une fonction étagée.
En générale, pour une variable aléatoire quelconque X, on a la définition suivante :

Définition 4.5.
Soient B = σ(Bi , i ∈ I) avec (Bi )i∈I une famille complète et X une variable aléatoire telle que X ∈
L1 (Ω). On définit l’espérance conditionnelle de X sachant B par

E(X|B) : Ω −→ R

ω 7−→ E(X|B)(ω) = E(X|Bi )(ω), si ω ∈ Bi ,

c’est à dire
X
E(X|B) = E(X|Bi )χBi . (4.5)
i∈I

Proposition 4.6.
L’application E(X|B) vérifie les propriétés suivantes :

i- E(X|B) est B-mesurable.

ii- E(X|B) ∈ L1 (Ω) et Z Z


E(X|B)dP = XdP, ∀B ∈ B, (4.6)
B B

c’est à dire que E(X|B) = X presque sûrement.

Preuve :

Il est évident de (4.5) que E(X|B) est B-mesurable, d’où i−.


[
Soit B ∈ B et J ⊂ I, tel que B = Bj on a
j∈J
Z XZ
E(X|B)dP = E(X|Bj )(ω)dP(ω)
B j∈J Bj
XZ
= E(X|Bj )dP
j∈J Bj
 
(4.1) X Z Z X 
= 
 E(X|Bj )P(Bj )dP dP
Bj Bj P(Bj )
j∈J
X E(XχBj )
= P(Bj )
P(Bj
j∈J

Master : AMA 7 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

X
= E(XχBj ) = E(Xχ S Bj )
j∈J
j∈J
Z
= E(XχB ) = XdP.
B

Et puisque X ∈ L1 (Ω), alors E(X|B) ∈ L1 (Ω). Par suite ii− est démontrée.

Exemple 4.1.

Z ! Z !
c 1 1
➀ E(X|{∅, B, B , Ω}) = XdP χB + c)
XdP χBc .
P(B) B P(B Bc
➁ Soit X une variable aléatoire sur (Ω, F , P) suivant une loi de Poisson de paramètre λ > 0 et
 
X
posons Y = 2 . Calculer l’espérance conditionnelle E[X|σ(Y )].
2
Discussion
Considérons la famille des Bn = {Y = 2n}, n ≥ 0
= {ω ∈ Ω, Y (ω) = 2n}, n ≥ 0.
On remarque que σ(Y ) = σ(Y −1 ({2n}), n ∈ N) = σ(Bn , n ≥ 0),
\ [
on a aussi Bn Bm = ∅ et Bn = Ω. Donc
n,m n∈N Z
X (4.1) X
E(X|σ(Y )) = E(X|σ(Bn , n ∈ N)) = E(X|Bn )χBn . On sait que E(X|Bn ) = dP =
Bn P(Bn )
R n∈N

Bn
XdP
.
P(Bn )
On a
Z Z Z
XdP = XdP + XdP
Bn [X=2n] [X=2n+1]
= 2nP(X = 2n) + (2n + 1)P(X = 2n + 1)
λ2n exp(−λ) λ2n+1 exp(−λ)
= 2n + (2n + 1)
(2n)! (2n + 1)!
2n
λ exp(−λ)
= (2n + λ) .
(2n)!

et on a aussi,

P(Bn ) = P(Y = 2n) = P(X = 2n ou X = 2n + 1)

= P(X = 2n) + P(X = 2n + 1)


λ2n λ2n+1
= exp(−λ) + exp(−λ) .
(2n)! (2n + 1)!

Master : AMA 8 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Par conséquent,

(4.1) λ2n exp(−λ) 2n + 1 (2n)!


E(X|Bn ) = (2n + λ)
(2n)! 2n + 1 + λ exp(−λ)λ2n
(2n + λ)(2n + 1)
= .
2n + 1 + λ

Ainsi,

(4.5) X
E(X|σ(Y )) = E(X|Bn )χBn
n∈N
X (2n + λ)(2n + 1)
= χ[Y =2n] .
2n + 1 + λ
n∈N

(Y + 1)(Y + λ)
Finalement, E(X|σ(Y )) = = g(Y ), cette dernière s’appelle espérance condi-
Y +1+λ
tionnelle de X sachant Y i.e E(X|Y ) avec X et Y sont discrètes.

4.3 Cas générale

Dans la suite de ce document B est une sous-tribu quelconque de F et X ∈ L1 (Ω, F , P).


Dans cette section on généralise les définitions élémentaires de l’espérance conditionnelle pré-
cédentes, en considérant que B une sous-tribu arbitraire.
Ainsi, l’espérance conditionnelle par rapport à une variable aléatoire continue pourra être défi-
nie, comme suite.

Définition 4.7.
Une variable aléatoire Y est appelée espérance conditionnelle de X sachant B, i.e Y = E(X|B) si

i- Y est B-mesurable.

ii- Pour tout B ∈ B : Z Z


E(Y χB ) = Y dP = XdP = E(XχB ), (4.7)
B B

Pour B ∈ F ; P(B|B) = E(χB |B) est appelée probabilité conditionnelle de B sachant B.

Théorème 4.8.
E(X|B) existe et unique presque sûrement.

Master : AMA 9 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Preuve :
Pour montrer l’unicité considérons les deux variables aléatoires Y1 et Y2 vérifiant i- et ii- de la
Définition 4.7
[
Y ,Y2 Y ,Y2
Puisque [Y1 < Y2 ] = Aa,b1 où Aa,b1 = {ω ∈ Ω, Y1 ≤ a < b ≤ Y2 } qui est un événement de B
a,b∈Q
Y ,Y2
car Y1 et Y2 vérifient la propriété i- dans la définition 4.7. Il suffit de montrer que Aa,b1 soit
négligeable pour a < b.
Z  Y ,Y   Y ,Y 
Y ,Y2
Y1 dP ≤ aP Aa,b1 2 ≤ bP Aa,b1 2
Aa,b1
Z
≤ Y ,Y2
Y2 dP.
Aa,b1

  Z  Y ,Y 
Y ,Y
Or, (b − a)P Aa,b1 2 ≤ Y ,Y2
(Y2 − Y1 )dP = 0, d’où P Aa,b1 2 = 0, car b − a > 0.
Aa,b1
Finalement, P([Y1 < Y2 ]) = 0 ; c’est à dire que Y1 = Y2 presque sûrement. Posons, X + = X ∨ 0 et
X − = X + − X et définissons les deux mesures suivantes sur B :
Q ± (B) = E(X ± χB ), pour tout B ∈ B et considérons la restriction de P sur B, notée par PB .
Il est claire que Q ± ≪ PB , alors d’après le théorème de Radon-Nikodym, il existe deux variables
dQ+ dQ−
aléatoires Y + = et Y − = telles que Y + , Y − ∈ L1 (Ω, B) et
dPB dPB
Z Z Z
Q + (B) = X + dP = Y+ dPB = Y+ dP,
B B B
Z Z Z
Q − (B) = X − dP = Y− dPB = Y− dP.
B B B

D’après la Définition 4.7, il existe une unique variable aléatoire Y = Y + −Y − telle que : E(X|B) =
Y presque sûrement.


Théorème 4.9.

(i) Pour X et Y intégrables et a ∈ R,

E(aX + Y |B) = aE(X|B) + E(Y |B) presque sûrement. (4.8)

(ii) Pour X et Y “positives ,, ou intégrables, telle que X ≥ Y , alors

E(X|B) ≥ E(Y |B), P − p.s. (4.9)

Master : AMA 10 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

(iii) Si ϕ : R 7−→ R une application convexe et ϕ(X) est intégrable si X l’est aussi. On a l’inégalité
de Jensen :
ϕ [E(X|B)] ≤ E(ϕ(X)|B), P − p.s. (4.10)

en particulier, |E(X|B)| ≤ E(|X||B) et [E(X|B)]p ≤ E(|X|p |B), ∀p ≥ 1.

(iv) Si Y est B-mesurable, X et XY sont intégrables, alors

E(XY |B) = Y E(X|B)P − p.s. (4.11)

(v) Le conditionnement successif : Si C∞ ⊂ C∈ ⊂ F , avec C est une sous-tribu, et X est intégrable


alors
E(E(X|C1 )|C2 ) = E(E(X|C2 )|C1 ) = E(X|C1 ), P − p.s. (4.12)

(vi) Si X est intégrable, alors


E(E(X|B)) = E(X), P − p.s. (4.13)

Preuve :
Pour l’assertion i-, on voit que le terme est B-mesurable aussi E(aX + Y |B) est B-mesurable. De
plus, soit B ∈ B,

E [χA (aE(X|B) + E(Y |B))] = aE [χA E(X|B)] + E [χA E(Y |B)]

= aE(χA X) + E(χA Y ) = E [χA (aX + Y )] ,

donc d’après le Théorème 4.8 et la Définition 4.7

E(aX + Y |B) = aE(X|B) + E(Y |B) presque sûrement.

Pour montrer ii- Considérons l’événement A = [E(Y |B) < E(X|B)]. A est un événement de B,
du fait que E(X|B) et E(X|B) sont B-mesurables. Posons Aa,b = [E(X|B) ≤ a < b ≤ E(Y |B)] ∈ B et
[
A= Aa,b .
a,b∈Q
On a
Z

(b − a)P Aa,b = (b − a)dP
Aa,b
Z
≤ [E(Y |B) − E(X|B)]dP
Aa,b
Z
(4.8)
= [E(Y − X)|B]dP
Aa,b

Master : AMA 11 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Z
= (Y − X)dP.
Aa,b


Puisque b − a > 0, alors P Aa,b = 0 d’où P(A) = 0.
Finalement, E(X|B) ≥ E(Y |B) presque sûrement. Jensen conditionnel avec tes notations : E(φ(X)|B) ≥

φ(E(X|B)) obtenue en utilisant : φ ′ la dérivée à droite de φ, φ ′ est continue à droite et croissante


car φ est convexe, donc φ ′ est continue à droite avec des limites à gauche. φ(x) ≥ φ(E(X|B)) +
φ ′ (E(X|B))(x − E(X|B)) p.p, p.s. φ ′ (E(X|B)) est B-mesurable, car φ ′ est càd-làg.
Y = φ(X) − φ(E(X|B)) − φ ′ (E(X|B))(X − E(X|B)) est une E(Y ) = E(E(Y |B)) et E(φ(X)|B) =
φ(E(X|B)) donc E(Y ) = 0 donc Y = 0 p.s. donc φ(X) = φ(E(X|B)) − φ ′ (E(X|B))(X − E(X|B)) p.s. or
l’inégalité est stricte sur {X , E(X|B)} implique X = E(X|B) p.s.
L’argument "caché" par rapport à la démonstration précédente est celui qui permet de choisir
la pente
L’esprit de la démonstration est le même... Pour donner un sens à l’inégalité, remarquons
d’abord que E(X|B) ∈ R presque sûrement. En effet, si X ≥ a presque sûrement, alors E(X|B) ≥ a
presque sûrement. Cependant, on va voir que si X > a presque sûrement, on a encore E(X|B) > a
presque sûrement.
Par linéarité, on se ramène au cas où a = 0. On suppose donc que X > 0 et on pose Y = E(X|B).
On sait déjà que Y ≥ 0 presque sûrement. Il reste à montrer que P(Y = 0) = 0. Comme l’évé-
nement {Y = 0} est B-mesurable, on a E(χ{Y =0} X) = E(χ{Y =0} Y ) = 0, donc χ{Y =0} X = 0 presque
sûrement.
Comme X > 0 presque sûrement, on a, χ{Y =0} = 0 presque sûrement
donc P(Y = 0) = 0
Soit φ une famille dénombrable de fonctions affines f telles que
∀x ∈ R f (x) ≤ ϕ(x) soit f ∈ φ, on a presque sûrement f (X) ≤ ϕ(X), donc E(f (X)|B) ≤ E(ϕ(X)|B).
Mais comme ϕ est une fonction affine,
E(f (X)|B) = f (E(X|B)). Ainsi, ∀f ∈ φ f (E(|B)) ≤ E(ϕ(X)|B)
Comme φ est dénombrable, on a alors sup f (E(|B)) ≤ E(ϕ(X)|B).
f ∈φ
Il reste donc à montrer que la famille peut être choisie de telle sorte que, presque sûrement, au
point x = E(X|B), on ait
sup{f (x) ; f ∈ φ} = ϕ(x). En tout point rationnel q de R, on considère l’application affine ϕq tan-
gente à droite (ou à gauche) au point q à la courbe représentative de ϕ.

Master : AMA 12 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

On prend alors φ = (ϕq )q∈R T Q = (ϕq )q∈Q . L’application x 7−→ sup(x) est convexe continue et
f ∈φ
coïncide avec ϕ sur Q, donc par densité et continuité
sur R.
Au premier lieu considérons le cas où X et Y sont positives. Pour tout n ∈ N, posons Yn =

2−n [2n Y ]. On sait que Yn ր Y , alors Yn E(X|B) −→ Y E(X|B), en croissant quand n −→ +∞. Le
théorème de convergence monotone implique que pour B ∈ B

E (χB Yn E(X|B)) −−−−−−→ E (χB Y E(X|B)) . (4.14)


n→+∞

D’autre part
 +∞ 
X 
−n
E (χB Yn E(X|B)) = E  χB E(X|B)χ[Yn =k2−n ] × k2 
k=1
+∞ h
X i
= E χB χ[Yn =k2−n ] × k2−n E(X|B)
k=1
+∞ h
X i
= E χB∩[Yn =k2−n ] k2−n E(X|B)
k=1
+∞
X h i
= k2−n E χB∩[Yn =k2−n ] E(X|B) .
k=1

Or, B ∈ B et [Yn = k2−n ] ∈ B, car Y est B-mesurable. Donc par application du Théorème de
convergence monotone.
+∞
X h i
E (χB Yn E(X|B)) = k2−n E χB∩[Yn =k2−n ] E(X|B)
k=1
+∞
X h i
= k2−n E χB∩[Yn =k2−n ] X
k=1
+∞ 
X 
= E k2−n χB χ[Yn =k2−n ] X
k=1
= E(χB Yn X) −−−−−−→ E(χB Y X) (4.15)
n→+∞

Donc, pour X et Y positives ; (4.14) et (4.15) entrainent que pour tout B ∈ B

E (χB Y E(X|B)) = E(χB XY ).

D’où E(XY |B) = Y E(X|B). En générale, on considère X = X + − X −


et Y = Y + − Y − et on applique la linéarité i-. Ce qui prouve iv-. On a, en posant dans ii- Y =

E(X|B) qui est une variable aléatoire

Master : AMA 13 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

B-mesurable et prenons X ≡ 1 qui est intégrable

E (E(X|C)|B) = E(X|C)E(1|B) = E(X|C).

Soit maintenant B ∈ C par suite B ∈ B, donc

E (χB E[E(X|B)|C]) = E [χB E(X|B)]

= E(χB X) = E [χB E(X|B)]

Puisque l’espérance conditionnelle est unique presque sûrement (Théorème 4.8), alors

E(E(X|B)|C) = E(X|B) presque sûrement

Ainsi, l’assertion v- est démontrée. Pour montrer vi- il suffit de prendre B = Ω ∈ B, alors

E (E(X|B)) = E(X). 

Proposition 4.10.

i- Si σ(X) et B sont indépendantes, alors E(X|B) = E(X) presque sûrement.

ii- Si Xn ր X, alors E(Xn |B) ր E(X|B) quand n −→ +∞, presque sûrement.


p.s
iii- Si |Xn | < Y ∈ L1 (Ω, F , P) et Xn −−−−−−→ X, alors
n→+∞

p.s
E(Xn |B) −−−−−−→ E(X|B).
n→+∞

Lp Lp
iv- Si Xn −−−−−−→ X, alors E(Xn |B) −−−−−−→ E(X|B) pour p ≥ 1.
n→+∞ n→+∞

Preuve :

Puisque E(X) est B-mesurable, soit B ∈ B, X et χB sont indépendantes :

E (E(X|B)χB ) = E(χB X) = E(X)E(χB )

= E(E(X)χB ).

Puisque E(X|B) est B-mesurable, alors E(X|B) = E(X) presque sûrement, d’où l’assertion
i-.

Master : AMA 14 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

L’assertion ii- dans le théorème ?? entraine que E(Xn |B) est une suite croissante de varaibles
aléatoires B-mesurable. Utilisons le théorème de convergence dominée, pour B ∈ B,

Z Z ! Z !
lim E(Xn |B)dP = lim E(Xn |B)dP = lim Xn dP
B n→+∞ n→+∞ B n→+∞ B
Z   Z Z
= lim Xn dP = XdP = E(X|B)dP.
B n→+∞ B B

D’après le théorème d’unicité, on a lim E(Xn |B) = E(X|B) presque sûrement. Ainsi ii-
n→+∞
est démontrée.

p.s
Pour établir iii- définissons Zn = sup |Xk − X|. Puisque |Xn | ≤ Y et Xn −−−−−−→ X
k≥n n→+∞
p.s
on a 0 ≤ Zn < 2Y presque sûrement. Et Zn −−−−−−→ 0 et Y ∈ L1 (Ω, F , P),
n→+∞
en utilisant le théorème de convergence dominée on a E(Zn ) −−−−−−→ 0.
n→+∞
D’après le Lemme de Fatou
!
E(Zn ) ≤ E sup |Xk − X| ≤ sup E(|Xk − X|) −−−−−−→ 0.
k≥n k≥n n→+∞

E [|E(Xn |B) − E(X|B)|] = E [|E(Xn − XB)|]


(??)
≤ E [E(|Xn − X| |B)]
(??)
= E(|Xn − X|) ≤ E(Zn ) −−−−−−→ 0.
n→+∞

L1
De plus E(Xn |B) ∈ L1 et X ∈ L1 , d’où E(Xn |B) −−−−−−→ E(X|B).
n→+∞
Maintenant posons Z = lim E(Zn |B), puisque Zn est positive, alors E(Zn |B) est positive.
n→+∞
De plus Zn ≤ 2Y presque sûrement. Par suite |E(Zn |B)| ≤ E(2Y |B) = 2E(Y |B) presque
sûrement.
(??)
Or, E(E(Y |B)) = E(Y ) < ∞. D’où en utilisant le théorème de convergence dominée
 
E(Z) = E lim E(Zn |B) = lim E (E(Zn |B))
n→+∞ n→+∞
(??)
= lim E (E(Zn ))
n→+∞
 
(T h.??)
= E lim E(Zn ) = 0.
n→+∞

Master : AMA 15 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Finalement, E(Z) = 0, donc Z = 0 presque sûrement, par suite lim E(Zn |B) = 0 presque
n→+∞
sûrement. De plus

(4.8)
|E(Xn |B) − E(X|B)| ≤ E(|Xn − X| |B)
p.s
≤ E(Zn |B) −−−−−−→ 0.
n→+∞

Lp
Supposons que Xn −−−−−−→ X, i.e X ∈ L, X ∈ L et lim E(|Xn − X|p ) = 0, de (??) on peut
n→+∞ n→+∞
p
simplement vérifier que E(Xn |B) ∈ L .
et E(X|B) ∈ Lp .

E [|E(Xn |B) − E(X|B)|p ] = E [|E(Xn − X|B)|p ]


J ensen
≤ E [E([|Xn − X|p |B)]

= E(|Xn − X|p ) −−−−−−→ 0.


n→+∞

Ainsi, iv- est démontrée. 

4.4 Espérance conditionnelle par rapport à une variable

Soit Y une variable à valeurs dans R et σ(Y ) = σ(Y −1 (A), A ∈ B(R)), où B(R) est la tribu
Borélienne. Pour X une variable aléatoire intégrable, on définit l’espérance conditionnelle de X
sachant Y par
E(X|Y ) = E(X|σ(Y )). (4.16)

4.5 Dépendance et indépendance

Le principe de conditionnement s’étend des espérances aux lois. Cette extension s’appuie sur le
résultat suivant connu sous le nom de Lemme de Doob.

Lemme 4.11 (Lemme de Doob).


Soient X et Y deux variables aléatoires réelles sur (Ω, F ) . X est σ(Y )-mesurable si et seulement s’il
existe une application borélienne
h : R −→ R, telle que X = h(Y ).

Preuve :
⇐=) Si X = h(Y ), avec h est B(R)-mesurable, alors X est σ(Y )-mesurable.

Master : AMA 16 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

=⇒) D’après la définition d’une variable aléatoire X est σ(Y )-mesurable étagée est de la forme :
X X
X= ai χY −1 (Bi ) = ai χBi ◦ Y , ∀Bi ∈ B(R), où la somme est finie, les Bi ’s sont des boréliens et
i X i X
ai ≥ 0 ; X = ( ai χBi ) ◦ Y = h ◦ Y avec h = ai χBi . Supposons que X est une variable aléatoire
i i
positive X = lim (hn ◦ Y ) avec hn est borélienne positive étagée, convergente en tout point de
n→+∞
Y (Ω), l’image de Y . Posons, donc, h = lim hn , ainsi lim (hn ◦ Y ) = X. D’où h ◦ Y = X.
n→+∞ n+∞

Corollaire 4.12.
Soient X et Y deux variables aléatoires réelles sur (Ω, F , P) telle que X est intégrable. Alors
Z = E(X|Y ) si et seulement si Z = h(Y ) avec, h est B(R)-mesurable et bornée.

Proposition 4.13.
Soient X une variable aléatoire à valeurs dans R, et B une sous-tribu de F , alors X et B sont
indépendantes si et seulement si pour tout t ∈ R,

E(exp(itX)|B) = E(exp(itX)) presque sûrement.

Preuve :
=⇒) X et B sont indépendantes, alors exp(itX) et B sont indépendantes
Par suite l’assertion i- de la Proposition 4.10, entraine que E(exp(itX)|B) = E(exp(itX) presque
sûrement.
⇐=) Soit Z est B-mesurable. Pour tout t ∈ R et s ∈ R, considérons les fonctions caractéristiques

ϕX,Z (t, s) = E (exp(itX + isZ)] = E [exp(itX) exp(isX)]

= E [E((exp(itX) exp(isX)|B)] = E [exp(isX)E((exp(itX)|B)]

= E [exp(isX)E((exp(itX))] = E[exp(isX)]E[exp(itX)] = ϕX (t)ϕZ (s).

Donc X ⊥ Z, par suite X et B sont indépendantes.




4.6 Lois conditionnelles

Proposition 4.14.
Soit B une sous-tribu de F et X et Y deux variables aléatoires à valeurs dans R. On suppose que X
est B-mesurable et que Y est indépendante de B, alors pour toute h mesurable bornée sur R2

E [h(X, Y )|B] = φ(X) presque sûrement,

où φ(x) = E[h(x, Y )].

Master : AMA 17 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Preuve :
Considérons Z une variable aléatoire positive B-mesurable. Notons par PY et PX,Z les lois de Y
et de (X, Z). Z
On a φ(x) = E [h(x, Y )] = h(x, y)dPY . Donc, d’après le théorème de Transfert (Théorème ??).

Z Z "Z #
E(Zh(X, Y )) = zh(x, y)dPX,Z = z h(x, y)dPX,Z dPY
Z "Z #
= z h(x, y)dPY (y) dPX,Z (x, z)
Z
= φ(x)dPX,Z(x, z) = E(Zφ(X)).

Pour Z = χB avec B ∈ B. On a E [χB h(X, Y )] = E [χB φ(X)]. Or, φ(X) est B-mesurable. La
définition 4.7 et le théorème d’unicité entraine que φ(X) = E(h(X, Y )|B) presque sûrement.

Corollaire 4.15.
Avec les hypothèses de la Proposition 4.14 si X et Y sont indépendantes
on a
E(h(X, Y )|X = x) = E(h(x, Y ))presque sûrement. (4.17)

Les applications de ces deux résultats dans le calcul des lois conditionnelles sont nombreux.

Master : AMA 18 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Exemple 4.2.

➀ Soit Y une variables aléatoires qui prend un nombre au plus dénombrable (yi , i ∈ I)
avec, P(Y = yi ) > 0.

E(X|Y ) = E(X|σ(Y )) = E(X|σ(Y −1 {yj }; j ∈ I))


X
= E(X|Y −1 ({yj })χ(Y −1 {yj })
j∈I
R
X [Y =yj ]
XdP
= χ Bj
P(Y = yj )
j∈I
X
= E(X|Y = yj )χBj Où Bj = [Y = yj ]
j∈I

R
[Y =yj ]
XdP Z
Ainsi, E(X|Y = yj ) = = XdP(.|Y = yj ).
P(Y = yj ) Ω
P(.|Y = yj ) est la probabilité conditionnelle sachant Y = yj . Comme application, Soit
(X, Y ) un couple de variable aléatoire sur (Ω, F , P) à valeurs dans N2 de loi définie par :
 n
 λ exp(−λ)p k (1 − p)n−k
; si 0 ≤ k ≤ n.



P(X = n; Y = k) = 
 k!(n − k)!



 0 ; sinon.

Cherchons l’espérance conditionnelle suivante : E(X|Y = k), ∀ 0 ≤ k ≤ n. Puisque


X λn exp(−λ)p k (1 − p)n−k (pλ)k
P(Y = k) = = exp(−pλ) et
k!(n − k)! k!
n≥k
Z X λn exp(−λ)p k (1 − p)n−k
XdP = n
[Y =k] k!(n − k)!
n≥k
(pλ)k X λn−k (1 − p)n−k
= exp(−λ) n
k! (n − k)!
n≥k
k +∞
(pλ) X [λ(1 − p)]r
= exp(−λ) (r + k)
k! r!
r=0
k +∞ +∞
(pλ) X [λ(1 − p)]r X [λ(1 − p)]r
= exp(−λ) [ ( +k
k! (r − 1)! r!
r=0 r=0
(pλ)k
= exp(−pλ) [λ(1 − p) + k] (4.18)
k!
de (4.1) et (4.18), on a
R
[Y =k]
XdP
E(X|Y = k) = = λ(1 − p) + k, ∀k ∈ N
P(Y = k)
. d’où E(X|Y ) = λ(1 − p) + Y .

Master : AMA 19 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

➁ Considérons (X, Y ) ∈R R2 de densité f (x, y) par rapport à la mesure de Lebesgue. On a


xf (x, y)dx
h(y) = E(X|Y = y) = RR , en effet :
R
f (x, y)dx
E(X|Y = y) = lim E (X|Y ∈ [y − ǫ, y + ǫ])
ǫ→0+
 R 
(4.1)  Y ∈[y−ǫ,y+ǫ] XdP 
= lim 
 
 P (Y ∈ [y − ǫ, y + ǫ]) 

ǫ→0+ 
R 
 Ω X(ω)χY ∈[y−ǫ,y+ǫ] (ω)dP(ω) 
= lim  
ǫ→0+  P (Y ∈ [y − ǫ, y + ǫ]) 
R
g(X(ω), Y (ω))dP(ω)
= lim+ Ω
ǫ→0 P (Y ∈ [y − ǫ, y + ǫ])
R
g(x, y)dP(X,Y) (x, y)
= lim+
ǫ→0 P (Y ∈ [y − ǫ, y + ǫ])
R
(T h.??) χY ∈[y−ǫ,y+ǫ] (y)xf (x, t)dxdt
= lim+
ǫ→0 P (Y ∈ [y − ǫ, y + ǫ])
R R y+ǫ f (x,t)dt 
R y−ǫ 2ǫ xdx
= lim+ F (y+ǫ)−F (y−ǫ)
ǫ→0 Y Y

R 2ǫ R

R
xf (x, y)dx xf (x, y)dx
= = RR .
f Y (y) f (x, y)dx
R

Z
Lorsque f (x, y)dx > 0. Déterminons h(Y ) =? Considérons, pour cela C un borélien et
R
B = Y −1 (C). Alors
Z Z Z "Z #
h(Y )dP = h(y)f Y (y)dy = h(y) f(x, y)dy dx
Y −1 (C) Z C "Z #C Z Z R

= xf (x, y)dy dx = χC (y)xf(x, y)dydx


ZR C ZR R
= g(x, y)f (x, y)dydx = g(X, Y)dP
Z R2 Z Ω
= XχC (Y )dP = XdP.
Ω Y−1 (C)

Donc, d’après le Théorème 4.8 et la Définition 4.7 h(Y ) = E(X|Y ) presque sûrement.
Comme application, soient X et Y deux variables aléatoires de densité conjointe :
f (x, y) = 8xyχ]0,y[ (x), déterminons E(Y |X = x). On a d’après ce qui précède
R
yf (x, y)dy 2 1 + x + x2
h(x) = E(Y |X = x) = RR = , x ∈]0, 1[.
f (x, y)dy 3 1+x
R
2 1 + X + X2
D’où h(X) = E(Y |X) = .
3 1+X
Si on remplace dans les exemples précédentes X par φ(X) où φ est borélienne
bornée,on voit que :

Master : AMA 20 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Z
E(φ(X)|Y = yj ) = φ(X)dP(.|Y = yj ) . Pour tout Borélien B,

PX (.|Y = yj )(B)
R = P(X ∈ B|Y = yjZ), aussi avec les mêmes hypothèses sur φ on a
φ(x)f (x, y)dx f(x, y)dx
E(φ(X)|Y ) = RR = φ(X)K(Y , dx). Où, = K(y, dx) = R qui
R
f (x, y)dy R
f(x, y)dx
s’interprète comme la loi conditionnelle de X sachant Y = y.
f (x, y)
Il s’ensuit que la densité conditionnelle de X sachant Y = y est , où
Z f Y (y)
f Y (y) = f (x, y)dy est la densité marginale de Y . Cette formule permet le calcul
R
pratique des lois conditionnelles.

En s’inspirant de ces exemples on a la définition suivante :

Définition 4.16.
On appelle transition, ou noyau de transition, toute fonction K : R × B(R) −→ [0, 1] telle que

(i) pour tout B ∈ B(R), y −→ K(y, B) est mesurable.

(ii) pour tout y ∈ R, B −→ K(y, B) est une mesure de probabilité.

Théorème 4.17.
Soient X et Y deux variables aléatoires dans (R2 , B(R2 ))P de loi P, où B(R2 )P la tribu borélienne
P-complète. Il existe un noyau de transition K tel que pour toute fonction φ borélienne bornée,
Z
E(φ(X)|Y ) = φdK(y, dx) presque sûrement.

La mesure K(y, dx) est appelée la loi conditionnelle de X sachant Y = y. 

Master : AMA 21 Pr. El Maroufy


Chapitre 5

Martingale à temps discret

Le nom “martingale 2 ”est synonyme de jeu équitable, c’est à dire d’un jeu où le gain que l’on
peut espérer faire, en tout temps ultérieur, est égal à la somme gagnée au moment présent.
Dans ce chapitre on considère uns suite (Xn , n ∈ N) de variables aléatoires définies sur un
même espace probabilité (Ω, F , P) .

5.1 Définitions

Définition 5.1.
On appelle filtration toute suite croissante (Fn )n∈N de sous-tribus de F (on pourra prendre pour F la
tribu, notée F∞ , engendrée par la famille (Fn )n∈N ). L’espace (Ω, F , (Fn )n∈N , P) s’appelle espace de
probabilité filtré.

Intuitivement, la tribu Fn contient tous les événements qui peuvent survenir avant l’instant n.
Elle est considérée comme étant, toutes l’information disposée jusqu’à l’instant t = n

Définition 5.2.
Toute suite de variables aléatoires réelles (Xn , n ∈ N) est appellé un processus stochastique à temps
discret. Ce processus est dit adapté à la filtration (Fn )n∈N si la variable aléatoire Xn est Fn -mesurable,
pour tout n ∈ N.

Définition 5.3.
2. Élément du harnachement du cheval consistant en une courroie de cuir reliant la sangle, soit à la muserolle
(martingale fixe), soit aux rênes (martingale à anneaux) et destinée à empêcher le cheval d’encenser ou de porter au
vent, en probabilité c’est méthode plus ou moins exacte, mise au point à partir de l’observation du rythme des gains
et des pertes au jeu, et grâce à laquelle le joueur espère assurer ou accroître ses gains

22
Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Soit (Xn , n ∈ N) un processus stochastique définit sur l’espace de probabilité filtré (Ω, F , (Fn )n∈N , P).
Le processus est dit martingale s’il obeit aux trois propriétés suivantes :

(i) (Xn , n ∈ N) est adapté.

(ii) ∀n ∈ N, Xn est intégrable, i.e, E(|Xn |) < ∞.

(iii) Pour tout m, n tels que 0 ≤ m ≤ n,

E(Xn |Fm ) = Xm P − p.s. (5.1)

Il est dit une sur martingale (sous martingale) si pour 0 ≤ m ≤ n, l’égalité ci-mentionnée est remplacé
par ≤ (≥).

Proposition 5.4.
Le processus (Xn , n ∈ N) est une martingale (une sur, sous martingale) si et seulement si
E(Xn − Xm |Fm ) = 0 ( ≤ 0 , ≥ 0), pour tout m ≤ n.

Preuve :
Supposons que (Xn , n ∈ N) est une martingale alors, la formule de conditionnement successifs
et la linéarité de l’éspérance conditionnelle entrainent que pour m ≤ n,
X X
E(Xn − Xm |Fm ) = E(Xk − Xk−1 |Fm ) = E(E(Xk − Xk−1 |Fk−1 )|Fm ) = 0. D’où
m+1≤k≤n m+1≤k≤n
l’implication.
Pour l’implication inverse supposons que tout m ≤ n, on a
E(Xn − Xm |Fm ) = E(Xn |Fm ) − E(Xm |Fm ) = 0. D’où, d’après la formule (4.11) E(Xn |Fm ) = Xm , ainsi
donc (Xn , n ∈ N) est une martingale. De la même façon on montre les autres résultats pour les
sur(sous)-matingales.

Remarque 5.1.

(i) Si (Xn , n ∈ N) est une martingale (sur, sous martingale), alors la suite déterministe
(E(Xn ))n∈N est constante (décroissante, croissante).

(ii) (Xn , n ∈ N) est une martingale si et seulement, si s E(Xn |Fn−1 ) = Xn−1 , pour n ∈ N∗ .

En effet : Puisque (Xn , n ∈ N) est une martingale, alors E(Xn |Fm ) = Xm , pour tout m ≤ n par suite
E(Xn |Fn−1 ) = Xn−1 , par application de l’opérateur espérance une deuxième fois on trouve que
E(E(Xn |Fn−1 )) = E(Xn ), alors E(Xn ) = E(Xn−1 ), ce qui implique que la suite (E(Xn ))n∈N est
constante. Si (Xn , n ∈ N) est une sous-martingale, par exemple, alors E(Xn |Fm ) ≥ Xm , ∀m ≤ n. Donc,
pour tout n ∈ N∗ , E(Xn |Fn−1 ) ≥ Xn−1 . En conséquence pour tout n ∈ N∗

Master : AMA 23 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

E(Xn ) = E(E(Xn |Fn−1 )) ≥ E(Xn−1 ), c’est à dire que la suite (E(Xn ))n∈N est croissante. La
décroissance s’établie de la même manière.
Pour la remarque (ii), l’implication directe est triviale l’autre se vérifie de la manière suivante :

E(Xn |Fm ) − Xm = E(Xn − Xm |Fm )


Xn
= E(Xj − Xj−1 |Fm )
j=m+1
 
n
 
X  
 
= E E(Xj − Xj−1 |Fj−1 )|Fm  = 0,
| {z } 
j=m+1  
=0

d’où l’implication inverse.

Exemple 5.1.

① Soient Z une variable aléatoire intégrable définie sur l’espace filtré (Ω, F , (Fn )n∈N , P) . La des
variables aléatoires Xn = E(Z|Fn ), n ∈ N est alors est une martingale.

② Soient Zn , n ≥ 1, une suite des variables aléatoires indépendantes sur (Ω, F , P), intégrables et
de moyenne µ. C’est-à-dire, ∀n ∈ N, E(Zn ) = µ.
Désignons par Fn la sous-tribu engendrée par Z1 , ...., Zn , i.e, Fn =σ(Z1 , ...., Zn ). on voit que
(Fn )n∈N est une filtration. Soit pour n ∈ N, la somme Xn = Z1 + .... + Zn . Alors (Xn , n ∈ N) est
une martingale (sur-martingale, sous-martingale) si µ = 0 (µ < 0, µ > 0).

Discussion :

① Pour m ≤ n, on appliquant le conditionnement successif, on obtient que

E(Xn |Fm ) = E(E(Z|Fn )|Fm ) = E(Z|Fn |Fm )

= E(Z|Fm ) = Xm , car Fm ⊂ Fn ,

d’où (Xn , n ∈ N) est une martingale.

② Pour cet exemple, il suffit de remarquer que Xm est Fn -mesurable pour m ≤ n et que
Zn ⊥ Fn−1 ce qui entraine que

E(Xn |Fn−1 ) = E(Z1 + ..... + Zn |Fn−1 ) = E(Z1 + ... + Zn |Fn−1 )

= E(Xn−1 |Fn−1 ) + E(Zn |Fn−1 ) = E(Xn−1 |Fn−1 ) + Zn = Xn−1 + µ.

Si µ = 0, alors E(Xn |Fn−1 ) = Xn−1 ce qui montre que (Xn , Fn )n∈N est une martingale. Si
µ > 0, alors E(Xn |Fn−1 ) = Xn−1 + µ > Xn−1 et donc (Xn , Fn )n∈N est une sous-martingale.
Si µ < 0, alors E(Xn |Fn−1 ) = Xn−1 + µ < Xn−1 alors le processus sera une sur-martingale.

Master : AMA 24 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

5.2 Décomposition de Doob 1

Une sous-martingale (sur-martingale) peut être vue comme une martingale à laquelle est
ajouté un processus croissant (décroissant). C’est un processus qui cumule les sauts de
sous-martingales ou sur-martingales.
De plus, ce processus monotone noté (Zn , n ∈ N) peut être pris non seulement adapté à (Fn )n∈N
mais aussi adapté à (Fn−1 )n∈N , par convention F−1 = (∅, Ω) c’est-à-dire la valeur de Zn peut être
prédite à l’instant n − 1.

Théorème 5.5.
Soit (Xn , n ∈ N) une sous-martingale. Il existe deux processus (Yn , n ∈ N) et (Zn , n ∈ N) uniques
presque sûrement tels que :

(i) (Yn , n ∈ N) est une martingale.

(ii) Z0 = 0 et Zn est Fn−1 -mesurable pour tout n ∈ N et presque sûrement croissant.

(iii)
Xn = Yn + Zn , ∀n ∈ N. (5.2)

Preuve
Une martingale est en moyenne constante et le processus (Zn , n ∈ N) doit cumuler les sauts de
la sous-martingale (Xn , n ∈ N). Ceci conduit à considérer les différences ∆n = Xn − Xn−1 , n ≥ 1.
Xn
Soit Z0 = 0, Y0 = X0 et pour tout n ≥ 1, on pose Zn = E(∆i |Fi−1 ) et Yn = Xn − Zn
i=1
Le processus Zn est croissant, en effet
n+1
X n
X
Zn+1 − Zn = E(∆i |Fi−1 ) − E(∆i |Fi−1 )
i=1 i=1
= E(∆n+1 |Fn )

= E(Xn+1 − Xn |Fn ). (5.3)


(5.3)
Or, (Xn , n ∈ N) est une sous-martingale alors, E(Xn+1 − Xn |Fn ) ≥ 0. d’où, Zn+1 − Zn ≥ 0, ∀n ∈ N,
P − p.s.
(Yn , n ∈ N) est une martingale puisque

E(Yn |Fn−1 ) = E(Yn − Yn−1 + Yn−1 |Fn−1 )

1. Joseph doob 1910-2004, est un mathématicien Américain, l’un des fondateurs probabilistes de la théorie des
martingales. C’est lui qui a redémontré la loi forte de grand nombre en utilisant le théorème ergodique de Birkhoff.

Master : AMA 25 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

= E(Yn − Yn−1 |Fn−1 ) + E(Yn−1 |Fn−1 )

= E(∆n − (Zn − Zn−1 )|Fn−1 ) + Yn−1

= E(∆n |Fn−1 ) − E(Zn |Fn−1 ) + E(Zn−1 |Fn−1 ) + Yn−1

= Zn − Zn−1 − Zn + Zn−1 + Yn−1 = Yn−1 .

La dernière égalité se déduite du fait que Zn est Fn−1 -mesurable et Zn−1 est Fn−2 -mesurable et
donc Fn−1 -mesurable. On vient de montrer donc que E(Yn |Fn−1 ) = Yn−1 , pour n ∈ N∗ par suite
(Yn , n ∈ N) est une martingale. Il reste à montrer l’unicité de la décomposition, supposons que
(Yn′ , n ∈ N) et (Zn′ , n ∈ N) deux processus stochastiques vérifiant (5.2), alors Z0 = Z0′ = 0 et
Y0′ = Y0 = X0 . Par récurrence, supposons que Zj′ = Zj et Yj′ = Yj , ∀j ≤ n. Alors

′ ′ ′
Zn+1 = E(Zn+1 |Fn ) = E(Xn+1 − Yn+1 |Fn ) (Zn′ est Fn−1 −mesurable)

= E(Xn+1 |Fn ) − E(Yn+1 |Fn )

= E(Yn+1 + Zn+1 |Fn ) − Yn′

= Yn + Zn+1 − Yn′ ,

Dans les égalités précentes on a utilisé le fait que Yn′ = (Yn , n ∈ N) est une martingale et Zn+1 est

Fn - mesurable. On en déduit que Zn+1 = Yn + Zn+1 − Yn′ , or par hypothèse de recurence Yn = Yn′ .
′ ′
Alors Zn+1 = Zn+1 , P presque sûrement. Par suite aussi Yn+1 = Yn+1 d’où l’unicité de la
décomposition. 

5.3 Notion du temps d’arrêt

Définition 5.6.
Sur (Ω, F , (Fn )n∈N , P) un espace de probabilité filtré, la variable aléatoire τ : Ω −→ N ∪ {∞} est
appelé un temps d’arrêt si l’on a (τ ≤ n) = {ω ∈ Ω, τ(ω) ≤ n} ∈ Fn , pour tout n ∈ N.

Remarque 5.2.

(i) On pourrait définir un temps d’arrêt τ comme étant une variable aléatoire à valeurs dans N
\
telle que : (τ = n) ∈ Fn En effet : (τ = n) = (τ ≤ n) (τ ≤ n − 1)c , et que (τ ≤ n) ∈ Fn et
(τ ≤ n − 1) ∈ Fn−1 ⊂ Fn . Cette seconde définition est spécifique au processus au processus
discret et ne se généralise pas convenablement au cas des processus stochastiques martingales
à temps continue (voir le chapitre suivant).

Master : AMA 26 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

(ii) Si τ est un temps d’arrêt, on définit la tribu des événements antérieurs à τ en posant :
\
Fτ = {A ∈ F : A (τ ≤ n) ∈ Fn , pour tout n ∈ N}. On peut aisement vérifier que Fτ est une
tribu et que τ est Fτ -mesurable, cette tâche est laissé aux lecteurs comme un simple exercice.

Proposition 5.7.
Soient τ1 et τ2 deux temps d’arrêts et m ∈ N, alors on a les propriétés suivantes :

(i) τ1 ∨ τ2 , τ1 ∧ τ2 et τ2 ∧ m sont des temps d’arrêt.

(ii) Si τ1 ≤ τ2 , alors Fτ1 ⊂ Fτ2 .

Preuve
Pour montrer l’assertion (i) il suffit de remarquer que (τ1 ∧ τ2 ≤ n) = (τ1 ≤ n) ∪ (τ2 ≤ n). qui est
un événement de Fn , du fait que (τ1 ≤ n) ∈ Fn et (τ2 ≤ n) ∈ Fn . De la même manière, on vérifie
que (τ1 ∨ τ2 ≤ n}) = (τ1 ≤ n) ∩ (τ2 ≤ n) ∈ Fn , l’autre est trivial. Soit A ∈ Fτ1 et montrons que
\ \ \
A ∈ Fτ2 . Puisque τ1 ≤ τ2 , donc A {τ2 ≤ n} = (A (τ1 ≤ n)) (τ2 ≤ n) ∈ Fn . En effet,
\
(A (τ1 ≤ n)) ∈ Fn et τ2 est un temps d’arrêt i.e, (τ2 ≤ n) ∈ Fn , ainsi A ∈ Fτ2 , la preuve de (ii) est
ainsi achevée.

Lemme 5.8.
Si (Xn , n ∈ N) est un processus stochastique si τ est un temps d’arrêt par rapport à la filtration
(Fn )n∈N , la variable aléatoire Xτ définie pour chaque résultat ω ∈ Ω par Xτ (ω) = Xτ(ω) (ω). Si
τ(ω) < ∞, alors Xτ est Fτ -mesurable.

Preuve
Soit B ∈ B1 telle que B1 est la tribu Boréliènne sur R, montrons que (Xτ ∈ B) = Xτ−1 (B) ∈ Fτ ,
c’est-à-dire montrons que (Xτ ∈ B) ∩ (τ ≤ n) ∈ Fn , ∀n ∈ N. On a (Xτ ∈ B) ∩ (τ ≤ n) = ∪nk=0 (Xk ∈ B,
τ = k) ∈ Fn , car (Xk ∈ B ; τ = k) ∈ Fk , c’est-à-dire qu’ils sont Fk -mesurables donc Fn -mesurables,
La réunion dénombrable est dans Fn . D’où (Xτ ∈ B) ∩ (τ ≤ n) ∈ Fn par suite (Xτ ∈ B) ∈ Fτ ,
finalement Xτ est Fτ -mesurable. 

5.4 Les inégalités maximales

Définition 5.9.
On dit qu’un processus (Xn , n ∈ N) est un processus stochastique borné dans L1 si sup E(|Xn |) < ∞.
n∈N
On note L1M comme étant l’ensemble des processus stochastiques martingales et bornée dans L1 .

Master : AMA 27 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Ce sont des inégalités concernant les variables aléatoires max Xn , max |Xn |, sup Xn et sup |Xn |.
1≤n≤k 1≤n≤k n n

Théorème 5.10.
On a pour tout t > 0.

(i) Si (Xn , 1 ≤ n ≤ k) est une sous-martingale positive, alors

E(Xk )
 
P max Xn ≥ t ≤ . (5.4)
1≤n≤k t

(ii) Si (Xn , n ∈ N) est une sur-martingale positive, alors


!
E(X0 )
P sup Xn ≥ t ≤ . (5.5)
n t

Preuve :
Pour établir (i), considérons le temps d’arrêt τ = min{1 ≤ n ≤ k, Xn ≥ t} ou τ = k si cet ensemble
est vide. Si max Xn ≥ t, alors Xτ ≥ t et si max Xn < t, alors Xτ = Xk . On a alors
1≤n≤k 1≤n≤k
Z Z
E(Xk ) ≥ E(Xτ ) = Xτ dP +   Xτ dP
( max Xn <t) max Xn ≥t
Z 1≤n≤k 1≤n≤k
 
≥   Xk dP + tP max Xn ≥ t .
max Xn <t 1≤n≤k
1≤n≤k

  Z
Par conséquent, tP max Xn ≥ t ≤   Xk dP ≤ E(Xk ).
1≤n≤k max Xn ≥t
1≤n≤k
Pour montrer (ii) on considère
! le temps d’arrêt τ̃ = inf{n : Xn ≥ t} ou τ̃ = ∞ si l’ensemble est
vide. On a alors sup Xk > t = (τ̃ < +∞) et Xτ̃ > t sur l’ensemble (τ < +∞), et donc
k
Xn∧τ ≥ tχ(τ̃≤n) . On en déduit E(X0 ) ≥ E(Xn∧T ) ≥ tP(τ̃ ≤ n), faisons tendre n vers +∞,
E(X0 )
tP(τ̃ ≤ +∞) = tP(sup Xk ≥ t) ≤ E(X0 ). Donc P(sup Xk ≥ t) ≤ . Ainsi l’assertion (ii) est
k k t
démontrée.
Si sup Xn ≥ t alors Xτ ≥ t et si sup Xn < t, alors Xτ = ∞. Ainsi, puisque (Xn )n≥0 est une
n n ! Z
sur-martingale, alors E(X0 ) ≥ E(Xτ ). Par conséquent, tP sup Xn ≥ t ≤ ! Xτ dP ≤ E(X0 ).
n sup Xn >t
n
!
E(X0 )
D’où, P sup Xn ≥ t ≤ .
n t

Conséquences
Si(Xn , n ∈ N) est une martingale alors (|Xn |, n ∈ N) est une sous-martingale et donc ∀k ∈ N et
1
 
∀t > 0, P max |Xn | ≥ t ≤ E(|Xk |).
0≤n≤k t

Master : AMA 28 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

 
Observons que la suite χ[t,∞[ max |Xn | est croissante et majorée par 1, et converge presque
0≤n≤k n∈N !
1
sûrement vers (χ[t,∞[ sup |Xn |), on en déduit que P sup |Xn | ≥ t ≤ sup E(|Xn |). En particulier
n∈N n∈N t n∈N
sup |Xn | < ∞, P presque sûrement. Si de plus Xn est de carré intégrable, alors (Xn2 , n ∈ N) est une
n∈N
sous-martingale. On retrouve, par le théorème précédent (Théorème 5.10), que

1
   
P max |Xn | ≥ t ≤ P max Xn2 ≥t 2
≤ E(Xk2 ).
1≤n≤k 1≤n≤k t2

Master : AMA 29 Pr. El Maroufy


Chapitre 6

Processus stochastique continue,


notions de base

Dans ce chapitre, nous présentons les notions de base pour les processus stochastiques à temps
continues qui seront utiles dans le présent cours. Toujours (Ω, F , P) un espace de probabilité et
T = [0, +∞[.

6.1 Définitions et généralités

La famille X = (Xt , t ∈ T) est dite un processus stochastique à temps continue si pour t ∈ T, fixé,
la fonction
Xt : Ω → E
ω → Xt (ω)

est une variable aléatoire sur (Ω, F , P) à valeurs dans (E, B), E = R, Rd , d ∈ N ou plus
généralement E un espace métrique complet et séparable.
Quand T = N, la famille X = (Xt , t ∈ T) est dit un processus stochastique à temps discret. Pour
ω ∈ Ω, fixé, X(t, ω) = Xt (ω) s’appelle la trajectoire où la réalisation du processus qui correspond
au résultat ω.

6.1.1 Processus stochastique cadlag, mesurable et loi de probabilité Cadlag.

Le processus stochastique X est dite continue à droite et admet une limite à gauche, enabrégé
cadlag, si pour tout ω ∈ Ω fixé, la fonction t −→ X(t, ω) = Xt (ω) est continue à droite et admet
une limite à gauche.

30
Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Un processus stochastique X = (Xt , t ∈ T) est dit mesurable si pour tout

B ∈ B1 = B(R); {(ω, t) ∈ Ω × T; Xt (ω) ∈ B} ∈ F × B(T )

où B(T) est la tribu borélienne constitué des sous-ensembles de T = [0, +∞[ (la restriction de B
sur T).

Théorème 6.1. (Fubini)


Soit (Xt , t ∈ T) un processus stochastique mesurable alors

(i) Toutes ces trajectoires sont mesurables ; pour tout t ∈ T fixé,

Xt : Ω −→ Ea

t −→ Xt (ω) = X(t, ω),

est une variable aléatoire


Z de T dans E .
item[(ii)] si E|Xt | = |Xt (ω)|dP(ω) < ∞,∀t ∈ T. Alors la fonction t → E(Xt ) est

boréliènne.
Z Z Z ! Z
(iii) si S ⊂ T et E|Xt |dt = |Xt |dP dt. Alors |Xt |dt < +∞ P − p.s, presque toutes
S S Ω S
les trajectoires sont intégrables et on a
Z Z
E Xt (ω)dt = E(Xt )dt. (6.1)
S S

Cette égalité s’appelle formule de Fubini.

On peut vérifier simplement que la fonction φ X : ω → (Xt (ω), t ∈ T) définie sur (Ω, F , P) à
valeurs dans (ET , ⊗t∈T B) où ⊗t∈T B est la tribut produit et ET représente l’ensemble de toutes
les fonctions continues définies sur T en tout point de e à valeurs dans E
La valeur de probabilité PX définie sur ⊗t∈T B par ∀D̃ ∈ ⊗t∈T B

−1
PX (D̃) = P(φ X (D̃)), (6.2)

la mesure de probabilité définie en (6.2) appelée la loi du processus stochastique X = (Xt , t ∈ T),
on a le théorème suivant :

Théorème 6.2.
Soit (Xt , t ∈ T ) = X un processus stochastique Cad-lag, alors la loi PX de X est complètement
déterminée par la loi finie dimensionnelle suivante :

P(Xt
1
,Xt2 ,...,Xtn ) (D) = P((Xt1 , ..., Xtn ) ∈ D)), (6.3)

pour D ∈ B(Rn ) = ⊗ni=1 B engendrée par les cylindres.

Master : AMA 31 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Théorème 6.3. (Théorème d’existence de Kolmogorov)


Soit Ft1 ,t2 ,...,tn (x1 , x2 , ..., xn ) avec t1 < t2 < ... < tn ∀i ∈ {1, ..., n}, ti ∈ T, une famille de fonction de
répartition conjointe satisfaisant la condition de consistance

lim Ft1 ,...,tk ,tn (x1 , x2 , ..., xk , ..., xn ) = Ft1 ,t2 ,...tk ,..tn (x1 , ..., xk , xk+1 , ..., xn ). (6.4)
xk →+∞

Alors il existe un espace de probabilité telle (Ω̃, F˜ , P̃) et un processus stochastique X˜ = (X̃t , t ∈ T)
telle que
P(X̃t
1
,X̃t2 ,...,X̃tn ) (] − ∞, x1 ] × ...×] − ∞, xn ]) = Ft1 ,t2 ,...,tn (x1 , x2 , ..., xn ). (6.5)

Pour une preuve complète du théorème mentionné le lecteur pourrait consulter l’ouvrage de
Shiryaer [?].

Exemple 6.1.

① On rappelle que pour une variable aléatoire Z µ(µ, σ 2 ), sa densité est donnée par
−1
(x−µ)2
e 2σ 2
f µ,σ 2 (x) = √ , x ∈ R.
2πσ
Considérons la sequence des temps suivante : t0 < t1 < t2 < ... < tn et un vecteur x ∈ Rn et
considérons la fonction de densité de probabilité conjointe (la ”pddf") définie par

f t1 ,t2 ,...,tn (x) = f t0 ,t1 (x1 )f t0 ,t2 (x2 − x1 )...f t0 ,tn (xn − xn−1 ). (6.6)

Le théorème d’existence de Kolmogorov entraine qu’il existe un processus stochastique noté


B = (Bt , (t ∈ [0, +∞]) dont la loi finie dimensionnelle est telle que :
Z Z Z
P(Bt ,Bt ,...,Btn ) (D) = ... f t1 ,t2 ,...,tn (x1 , x2 , ..., xn )dx1 ...dxn . (6.7)
1 2
D⊂Rn

Le processus stochastique dont la loi finie dimensionnelle donnée par la formule (6.7) s’appelle
un processus gaussien.

② Considérons la distribution Poissonien ;

λx e −λ
Pλ (x) = , x ∈ N.
x!

Pour t1 < t2 < ... < tn , considérons la loi finie dimensionnelle suivante

P(k1 , ..., kn ) = Pλ (k1 )Pλ (k2 − k1 )...P(kn − kn−1 ). (6.8)

Selon le théoreme d’existence de Kolmogorov (6.3) il existe un processus stochastique


P(Xt1 = k1 , ..., Xtn = kn ) dit de poisson de probabilité finie-dimensionnelle est donnée par (6.8).

Master : AMA 32 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

6.1.2 Filtration

On appelle filtration toute collection des sous tribus de F , croissante Fs ⊆ Ft pours ≤ t. Ft est
interprété comme étant l’information fournie jusqu’à l’instant t ∈ T et on dit que l’espace
(Ω, F , (Ft )t∈T , P), est un espace de probabilité filtré. Un processus stochastique X = (Xt , t ∈ π)
sur (Ω, F , P) est dite adapté à la filtration (Ft )t∈T si ∀t ∈ T, Xt est Ft -mesurable. Pour simplifier,
un tel processus est noté par X = (Xt , Ft , t ∈ T), on dit parfois un processus non anticipatif.

Remarque 6.1.

(i) On peut interpréter l’adaptation, par Ft contient toute l’information sur Xt (ou extra
information).

(ii) Souvent, on rencontre les tribus de type Ft = σ(Xs , 0 ≤ s ≤ t) la plus petite sous tribu de F ,
rendant Xs , 0 ≤ s ≤ t mesurable ; engendrée par l’ensemble d’événements de type (a ≤ Xs ≤ b)
pour s ∈ [0, t] et a, b ∈ R(Q). C’est l’information disponible sur le processus X jusqu’à le
moment t. Elle s’appelle en générale, la tribut naturelle et (Ft )t∈T est la filtration naturelle.

Définition 6.4.
\
(i) Une filtration (Ft )t∈T est dite continue à droite si Ft + = Ft ou Ft + = Fs Cette continuité à
s>t
droite s’interprète comme suite : l’information fournie à l’instant t est la même que celle
fournie immédiatement juste après t.

(ii) Un processus stochastique X = (Xt , t ∈ T ) est dit progressivement mesurable si pour tout
t ∈ T et B ∈ B([0, t]) :

{(w, s), 0 ≤ s ≤ t et w ∈ Ω, Xt (w) ∈ B} ∈ Ft ⊗ B([0, t]). (6.9)

B([0, t]) : est la tribu borélienne sur [0, t].

Exemple 6.2.

① Un processus stochastique continue à droite (où à gauche) X = (Xt , Ft , t ∈ T ) est


progressivement mesurable.

② Si un processus stochastique X = (Xt , t ∈ T) n’est pas nécessairement adapté et continu à


droite (où à gauche) alors X est progressivement mesurable.

6.1.3 Équivalence de deux processus stochastiques

Définition 6.5.

Master : AMA 33 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Deux processus stochastiques X et X̃ définis respectivement sur deux espaces de probabilité (Ω, F , P)
et (Ω̃, F˜ , P̃) à valeur dans Rn , n ∈ N.

(i) Deux processus stochastiques sont dits faiblement équivalents s’ils ont les mêmes lois
finie-dimensionnelles dans ce sens. Pour, A1 , A2 , ..., An ∈ B(R), et pour
0 ≤ t1 ≤ t2 ≤ ... ≤ tn−1 ≤ tn < +∞ on

P(Xt
1
,Xt2 ,...,Xtn ) (A1 × A2 × ... × An ) = P̃(X˜t1 ,X˜t2 ,...,X˜tn ) (A1 × A2 × ... × An ), (6.10)

on peut prendre D ∈ B(Rn ) au lieu de A1 × A2 × ... × An .

(ii) Si les deux processus sont définis sur le même espace (Ω, F , P), ils sont dits fortement
équivalents ( stochastiquement équivalent ). Si

P(Xt = X̃t ) = 1 pour chaquet ∈ Tou (Xt = X̃t ) = {w ∈ Ω, Xt (w) = X̃t (w)}, (6.11)

dans ce cas, on dit que l’un est une version( modification) de l’autre.

(iii) Les deux processus sont dits indistinguables si

P(Xs = X̃s , 0 ≤ s ≤ +∞) = 1, (6.12)

Exemple 6.3.
Soit Y est une variable aléatoire continue sur [0, 1] et Xt ≡ 0, ∀t > 0 et Yt = χ(t=Y ) .
Discussion :

(i) soit t ∈ T,

P(Xt = X̃t ) = P(X̃t = 0) = P(T , t)

= 1 − P(t = T ) = 1 − PT ({t})
Z
= 1− f T (s)ds = 1.
{t}

d’où Xt et X̃t sont stochastiquement équivalents ; l’un est une version de l’autre.

(ii) Pour l’indistingabilité, on vérifie que

P(Xt = X̃t , 0 ≤ t ≤ ∞) = P(X̃t = 0, 0 ≤ t ≤ ∞)

= P(Y , t, 0 ≤ t ≤ ∞)

= 1 − P(Y = t, pour au moins un , t ∈ [0, +∞[).

 
 [ 
P(Y = t, pour au moins un, t ∈ [0, +∞[ = P  (Y = t)
 
 
t∈[0,1]

Master : AMA 34 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

= P (Y ∈ [0, 1])

= PY ([0, 1]) + PY (]1, +∞])


Z1
= f Y (s)ds + 0 = 1,
0

d’où P(Xt = X̃t , 0 ≤ t ≤ +∞) = 0, par conséquent les deux processus stochastiques ne sont pas
indistinguables.

Dans la suite de ce chapitre nous aurons besoin de ce résultat dont la preuve est laissée à
l’étudiant.

Théorème 6.6.
Si un processus stochastique X = (Xt , t ≥ 0) et (Ft )t∈T est adapté, alors il est progressivement
mesurable.

Définition 6.7.
Un processus stochastique X = (Xt , t ∈ T) à valeur dans E = (R, Rd ) est dit continu

(i) stochastiquement (en probabilité) au point t0 ∈ T si

lim P(kXt − Xt0 k ≥ ǫ) → 0, t → t0 , ∀ǫ > 0. (6.13)


t−→t0

(ii) en moyenne quadratique au point t = t0 si

lim E(kXt − Xt0 k2 ) = 0. (6.14)


t→t0

q
Dans LP (Ω) si limt→t0 E(kXt − Xt0 kq ) = 0.

(iii) en distribution au point t = t0 ,

lim FXt (x) = Fxt (x), (6.15)


t→t0 0

où x est un point de continuité de la fonction de répartition FXt .

(iv) presque surement au point t ∈ T s’il existe un événement Ω̃ ∈ F tel que P(Ω̃) = 1 et que

∀ω ∈ Ω̃, Xt (ω) −→ Xt0 (ω) quand t −→ t0 . (6.16)

Théorème 6.8. (Critère de continuité Kolmogorov 1 )


1. Une autre version simple pourrait être trouvée dans l’ouvrage d’Oksendal [4, Théoreme 2.2.3] ou dans [7,
Théoreme 1.8] . Pour la preuve, le lecteur peut consulter Stroock and Varadhan [6, page : 51].

Master : AMA 35 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Supposons que le processus X = (Xt , t ∈ T ) satisfaisait la condition suivante :

E(kXt − Xs kα ) ≤ c|t − s|1+β , (6.17)

pour α, β, c constantes positives, alors il existe une version continue X̃ de X̃ telle qu’elle est localement
continue au sens de Hölder d’ordre γ ∈ (0, β/α),i.e.
 
 kX̃ t − X̃ s k 
P  sup γ ≤ δ  = 1,
0≤s,t≤h(x) |t − s|

où h(x) une variable aléatoire positive et δ > 0 une constante convenable.

6.2 Processus stochastiques particuliers

6.2.1 Processus stochastique stationnaire

Définition 6.9. Un processus stochastique est dit stationnaire si la loi finie-dimensionnelle reste
inchangée par rapport au temps t ∈ T ; pour une séquence 0 ≤ t1 ≤ t2 < ... < tn et ∆ > 0 ,

P(Xt
1
,Xt2 ,...,Xtn ) (D̃) = P(Xt1 +∆ ,Xt2 +∆ ,...,Xtn +∆ ) (D̃), (6.18)

pour tout borélien D̃ de Rn . il est est dit stationnaire au sens large si pour tout ∆ > 0 et t ∈ T, avec
E(Xt )2 < +∞.
E(Xt+∆ ) = E(Xt ) et E(Xt+∆ Xs+∆ ) = E(Xt Xs ). (6.19)

(6.18) entraine (6.19), du fait que


Z Z ZZ ZZ
E(Xt+∆ )= dPXt+∆ = dPXt (x), E(Xt+∆ .Xs+∆ )= xydP(Xt+∆ ,Xs+∆ ) (x, y)= xydP(Xt ,Xs ) (x, y).
R R R2 R2

6.2.2 Processus Markovien

Définition 6.10.
Un processus X = (Xt , t ∈ T) est dit Markovien par rapport à la filtration (Ft )t∈T , si pour toute
fonction h boréliènne bornée sur E(R, Rd ), si pour s, t ∈ T

E[h(Xt+s )/Ft ] = E[h(Xt+s )/Xt ] = E[h(Xt+s )/σ(Xt )]. (6.20)

Une condition suffisante et nécessaire pour qu’un processus stochastique est établie dans le
théorème suivant :

Master : AMA 36 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Théorème 6.11. (Kartzas et Shreve[1, p .14])


X = (Xt , ∈ T) est un processus Markovien si et seulement si pour toute h fonction boréliènne bornée
sur Rd , on a :
h i
E h(Xt )/Xt1 , Xt2 , ..., Xtn = E[h(Xt )/Xtn ], (6.21)

pour 0 ≤ t1 ≤ t2 < ... < tn < t.

Corollaire 6.12.
Le processus stochastique X = (Xt , t ∈ T) est Markovien si et seulement si pour tout B ∈ B(E)

P(Xt+s ∈ B/Ft ) = P(Xt+s ∈ B/Xt ), (6.22)

l’équivalence reste encore vraie si on remplace Ft par σ(Xs , 0 ≤ s ≤ t).

6.2.3 Martingales à temps continues

Définition 6.13.
Un processus stochastique X = (Xt , t ∈ T) est dit une martingale s’il vérifie les trois conditions
suivantes :

(i) X est adapté à la filtration (Ft )t∈T .

(ii) ∀t ∈ T, E|Xt | < +∞ (Xt ∈ L1P (Ω)).

(iii)
E(Xt /Fs ) = Xs , P − p.s pour 0 ≤ s ≤ t. (6.23)

Si l’égalité ci-dessus est remplacé par ≤ (≥), Il est dit une sur-martingale (sous-martingale).

Exemple 6.4.
Soit X une variable aléatoire sur (Ω, F , (Ft )t∈T , P) espace filtré, E|X| < +∞, alors le processus
stochastique Yt = E(X/Ft ), t ∈ T est une martingale.

Discussion :
On sait, d’après la définion de l’espérance conditionnelle, que Yt est Ft -mesurable et
E(|Yt |) = E(|E(X/Ft )|) ≤ E(E(|X|/Ft )) = E(|X|) < +∞ donc ∀t ∈ T, E(|Yt |) < +∞, de plus pour
0 ≤ s ≤ t < +∞,
(4.12) (4.12) P−p.s
E(Yt /Fs ) = E(E(X/Ft )/Fs ) = E(E(X/Fs )/Ft ) = E(X/Fs ) = Ys .

Ainsi que (Yt , t ∈ T) est une martingale. Yt s’appelle martingale régulière de Doob-Levy.
Comme leurs analogues, les martingales discrets, les martingales à temps discret sont à
moyennes constantes et une sous (sur) martingale est à moyenne croissante (décroissante).

Master : AMA 37 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Exemple 6.5. (Kartzas et Shreve [1, Proposition 3.6])


Soit X = (Xt , t ∈ T) un processus stochastique défini sur (Ω, F , (Ft )t∈π , P) supposé adapté et Φ une
fonction convexe mesurable tel que ∀t ∈ T, E|Φ(Xt )| < +∞. Montrer que le processus stochastique
Φ(Xt ) = Yt est un sous martingale.

Discussion :
Φ une fonction mesurable convexe définie de E vers E. Xt est Ft − martingale. Donc
E(Xt /Fs ) = Xs p.s pour 0 ≤ s ≤ t. Posons Yt = Φ(Xt )

(i) Xt est Ft -mesurable alors Yt = Φ(Xt ) est Ft -mesurable.

(ii) ∀t ∈ T on a E(|Yt |) = E(|Φ(Xt )|) < +∞

(iii) Pour 0 ≤ s ≤ t, on a :
(4.10)
E(Yt /Ft ) = E(Φ(Xt )/Fs ) ≥ Φ(E(Xt /Fs ) = Φ(Xs ) = Ys

donc Yt est une sous martingale.

6.2.4 Processus à accroissements indépendants

Le processu X = (Xt , t ∈) est à accroissements indépendants si pour tout séquence


t = 0 ≤ t1 < t2 < ... < tn , les incréments Xt0 , Xt1 − Xt0 , Xt2 − Xt1 , Xt3 − Xt2 , ..., Xtn − Xtn−1 sont des
variables aléatoires indépendantes.

6.3 Temps d’arrêt Markoviens (stopping times)

Définition 6.14.
Soit τ une variable aléatoire définie sur (Ω, F , (Ft )t∈T , P) à variables dans R dire que τ est un temps
d’arrêt par rapport à la filtration (Ft )t∈T si

∀t ∈ T, (τ ≤ t) ∈ Ft où (τ ≤ t) = {ω ∈ Ω; τ(ω) ≤ t}. (6.24)

Dans la suite on note par Ft + = ∩s>t Fs , Ft + = σ(∪s<t Fs ) = ∨s<t Fs , F0− = F , F∞ = σ(∪s≥0 Fs ).

Proposition 6.15.
Si la filtration (Ft )t∈T continue à droite alors τ est un temps d’arrêt si et seulement si pour tout
t ∈ T, (τ < t) ∈ Ft .

Master : AMA 38 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Preuve :
[ 1

Pour l’implication direct, il faut remarquer que (τ < t) = τ ≤ t − , conclure en tenant
n
n∈N∗
compte du fait que la filtration est croissante. Pour l’inplication l’inverse, on sait que
\ 1

(τ ≤ t) = {ω ∈ Ω, τ(ω) ≤ t} = τ < t + . En effet, si ω ∈ (τ ≤ t). Alors pour tout n ∈ N∗ ,

n
n∈N 
1 1 1
\  \ 
τ(ω) < t + , c’est à dire ω ∈ τ < t + . Ainsi (τ ≤ t) ⊆ τ < t + . Maintenant
n n n
n∈N∗ n∈N∗
1
supposons pour un ω fixé tel que τ(ω) < t + , ∀n ∈ N, en passant à la limite on trouve que
n
\ 1
τ(ω) ≤ t, par suite τ(ω) ≤ t} = τ<t+ .
n
n∈N∗
1
 
On pourrait établir l’égalité précédent, en remarquant que τ < t + est une suite
 n n∈N∗
\ 1 1
 
décroissante d’événements, donc τ<t+ = lim τ < t + = (τ ≤ t). En conclusion,

n n→+∞ n
n∈N
\ 1 \
(τ ≤ t) = (τ < t + ) ∈ Ft+ 1 = Ft + = Ft , car la filtration est continue à droite. Par
n n
n∈N∗ n∈N∗
conséquent τ est un temps d’arrêt. 

Lemme 6.16.
Soit (τi )i∈N∗ une séquence de temps d’arrêt alors

(i) supi (τi ) est un temps d’arrêt.

(ii) si la filtration est continue à droite, alors : infi τi , limi supτi , limi infτi sont des temps d’arrêt.

Preuve :

(i) Soit ∀t ∈ T, (sup τi ≤ t) = ∩i∈N∗ (τi ≤ t) ∈ Ft d’où sup τi temps d’arrêt.


i i
[
(ii) ( inf∗ τi < t) = (τi < t). Puisque τi est un temps d’arret ∀i ∈ N∗ , on a d’après la
i∈N
i∈N∗ [
Proposition ??, ∀t ∈ T, (τi < t) ∈ Ft , donc (τi < t) ∈ Ft c-à-d (inf(τi ) ≤ t) ∈ Ft .
i∈N∗
On sait que lim sup(τi ) = inf sup(τk ) = inf τ̃i où τ̃i = sup(τk ) or d’après (i), τ̃i est un temps
i i k≥i i k≥i
d’arrêt et puisque Ft + = F , on a inf(τ̃i ) est un temps d’arrêt. Autrement, on peut vérifier
i
que lim sup(τi ) est un temps d’arrêt de la manière suivante :
i
! ! [ [ !
lim sup(τi ) < t = inf sup τk < t = (τ̃i < t) = sup τk < t
i i k≥i i∈N i∈N k≥i
[\ \  1
[\ 
= (τk < t) = τk ≤ t − ∈ Ft− 1 ⊂ Ft .

m m
i∈N k≥i i∈N k≥i m∈N

Master : AMA 39 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

On peut aussi voir que lim inf(τi ) est une temps d’arrêt, en effet
i
! +∞ [ 
1
[\ 
sup inf(τk ) > t = τk > t + ∈ Ft + ∈ Ft .
i k≥i ∗ ∗
m
i∈N k=i n∈N


Pour un temps d’arrêt τ par rapport à la filtration (Ft )t∈T , on définit la tribu
Fτ = A ∈ F , A ∩ (τ ≤ t) ∈ Ft , ∀t ∈ T

Remarque 6.2.
τ est Fτ -mesurable. En effet, (τ ≤ s) ∩ (τ ≤ t) = (τ ≤ s ∧ t) ∈ Fs∧t ⊂ Ft , donc (τ ≤ s) ∈ Fτ . D’où τ est
Fτ -mesurable.

Théorème 6.17.
Soit (τk )k∈N∗ une suite de temps d’arrêt par rapport à la filtration (Ft )t∈T supposée continue à droite .
\
Alors si τ = inf∗ τn on a Fτ = Fτn .
n∈N
n∈N∗

Preuve :
D’un coté, τ = infn∈N∗ (τn ) d’apres le Lemme ?? est un temps d’arrêt et que τ ≤ τn , ∀n ∈ N∗ . Alors
\ \
∀n ∈ N∗ , Fτ ⊂ Fτn , d’où Fτ ⊂ Fτn (voir, Exercice ??). Maintenant soit A ∈ Fτn , a-t-on
n∈N∗ n∈N
A ∈ Fτ ?. On a
 
 [  [
A ∩ (τ 6 t) = A ∩  (τn ≤ t) = (A ∩ (τn ≤ t)) ∈ Ft
n∈N∗ n∈N∗
[ [ \ 1

= A (τn ≤ t − ) . (6.25)
∗ ∗
k
n∈N k∈N
Or A ∈ ∩n∈N∗ Fτn donc ∀n ∈ N∗ ; A ∈ Fτn , i.e A ∩ (τn ≤ t) ∈ Ft pour tout ∀n ∈ N et t ∈ T. Par suite
\ 1

A τn ≤ t − ∈ Ft− 1 ⊂ Ft , d’où A ∩ (τ ≤ t) ∈ Ft . Par conséquent donc A ∈ Fτ . 
k k

Définition 6.18.
Soit X un processus stochastique et τ un temps d’arrêt défini sur {ω ∈ Ω, τ(ω) < +∞}, donc
Xτ (ω) = Xτ(ω) (ω) est une variable aléatoire . La variable aléatoire Xτ (ω) = Xτ(ω) (ω) si τ(ω) < +∞,
X+∞ (ω) est défini pour tout ω ∈ Ω. On pose Xτ (ω) = X∞ (ω) sur {ω ∈ Ω, τ(ω) = +∞}, dans ce cas

 Xτ(ω) (ω), si τ(ω) < +∞



Xτ (ω) = 

 X (ω), si τ(ω) = +∞.
 +∞

Proposition 6.19.
Soit X un processus stochastique progressivement mesurable et adapté et soit τ un temps d’arrêt par
rapport à la filtration (Ft )t∈T tel que τ < ∞. Alors la variable aléatoire Xτ est Fτ -mesurable et que le
processus stochastique (Xt∧τ , t ∈ T) est progressivement mesurable.

Master : AMA 40 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Preuve :
n o
Il suffit de montrer que ∀B ∈ B, Xτ−1 (B) = ω ∈ Ω, Xτ (ω) = Xτ(ω) (ω) ∈ B = (Xτ ∈ B) ∈ Fτ . Ceci
revient à montrer que pour tout t ∈ T, (Xτ ∈ B) ∩ (τ ≤ t) ∈ Ft , or

(Xτ ∈ B) ∩ (τ ≤ t) = [(Xτ ∈ B) ∩ (τ < t)] ∪ [(Xτ ∈ B) ∩ (τ = t)]

= [(Xτ∧t ∈ B) ∩ (τ < t)] ∪ [(Xt ∈ B) ∩ (τ = t)] (6.26)

Il est clair que, d’après la Proposition 6.15, que

(Xτ ∈ B) ∩ (τ = t) = (Xt ∈ B) ∩ (τ = t) ∈ Ft . (6.27)

Considérons maintenant la fonction suivante :

φ t : (Ω, Ft ) −→ (Ω × [0, t], Ft ⊗ B([0, t]))

ω 7−→ (ω, τ(ω) ∧ t),

est Ft -mesurable. En effet pour B̃ = A × [0, s], on a{ω ∈ Ω, (ω, τ(ω) ∧ t) ∈ A × [0, s]} ∈ Ft car
(τ ∧ t ≤ s) = (τ ≤ s) ∪ (t ≤ s) ∈ Fs ⊂ Ft . En conséquence φ t est Ft mesurable.
Considérons aussi, la fonction :

Φt : (Ω × [0, t], Ft ) ⊗ B([0, t])) −→ (E, B(E))

(ω, s) 7−→ Xs (ω),

on rappele que E = R ou Rd , d ∈ N. Puisque le processus stochastique est progressivement


mesurable alors Φ est Ft ⊗ B([0, t])-mesurable et la variable

Xτ∧t : (Ω, Ft )) −→ (E, B(E))

(ω, s) 7−→ Xτ(ω) (ω) = Φt ◦ φ t (ω).

et Ft -mesurable. Le composé de deux fonctions mesurables est mesurable. L’analyse précédente


montre que
(Xτ∧t ∈ B) ∩ (τ ≤ t) ∈ Ft . (6.28)

Par suite en conbinant (6.27) et (6.28) avec (6.26), on déduit que pour tout t ∈ T,
(Xτ ∈ B) ∩ (τ ≤ t) ∈ Ft . D’où Xτ est Fτ -mesurable
ainsi Xτ est Ft -mesurable.

Master : AMA 41 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

6.3.1 Temps d’entré (d’atteindre) de sortie d’un ensemble

La continuité (à droite) est un concept important quand on veut étudier les premiers temps
d’entrés et de sortie d’un ensemble borélien, A ⊂ E. Dans cette section on suppose que E = R.

Définition 6.20.
Soit X = (Xt , t ∈ T), un processus stochastique défini sur (Ω, F , (F )t∈T , P). Pour A un borélien, on
1
définit le premier temps d’entrée (d’atteindre) A par le processus X par :

τA = inf{t ≥ 0; Xt ∈ A},

et le premier temps de sortie 2 de A par :

τ̃A = inf{t > 0; Xt < A}.

Exemple 6.6.
Soit X = (Xt , Ft , t ∈ T) un processus à valeurs réeelles et à trajectoires continues. Considérons, pour
a ∈ R fixé, τa = inf{t ≥ 0; Xt = a} le premier temps d’atteindre a. On peut vérifier simplement que τa
est un temps d’arrêt. En effet, la continuité du processus et le fait que (Xs , a) ∈ Fs ⊂ Ft pour s ≤ t,
entrainent que
[ [
(τa > t) = (∀s ∈ [0, t]; Xs < {a}) = (Xs , a) = (Xs , a) ∈ Ft .
s∈∩[0,t] s∈Q∩[0,t]

D’où (τa ≤ t), ce qui montre que τa est un temps d’arrêt.

La proposition suivante est un outil pour construire des temps d’arrêt liés à des processus
stochastiques.

Proposition 6.21.
Supposons que le processus stochastique X est adapté à la filtration (Ft )t∈T .

(i) Supposons que les trajectoires de X soient continues à droite, et que O soit un sous-ensemble
ouvert de R ou de Rd (O =]a, b[), τO est un temps d’arrêt par rapport à (Ft + )t∈T .

(ii) Supposons que les trajectoires de X soient continues et F soit un sous-ensemble fermé de R ou
de Rd , (F =]a, b[), alors τF est un temps d’arrêt par rapport à (Ft )t∈T .
1. En anglais, τA is called the first hitting time of A (Intuitively : For all starting points the process X does not
hit A immediately, P − a.s)
2. En anglais, τ̃A is called the first exit time from A for X.

Master : AMA 42 Pr. El Maroufy


Université Sultan Moulay Slimane FSTBM Département de Mathématiques

Preuve : La preuve est laissée à l’étudiant comme étant un devoir à la maison à rendre en
formats .Pdf et .tex avant le 30 mars 2020

Exemple 6.7.
Supposons que les hypothèses de la Proposition 6.21 sont vérifiés et de plus (Ft ) est continue à droite.
Alors τ[a,b] est un temps d’arrêt.

Discussion :
\ 1 1
 \
Posons A = [a, b], A = a − ,b + = An . On a d’après la Proposition 6.21, τ]a− 1 ,b+ 1 [ est
n n n n
n∈N∗ n∈N∗  
un temps d’arrêt car la filtration est continue à droite. Par suite, τ]a− 1 ,b+ 1 [ > t ∈ Ft , pour t ∈ T.
\ \ n n

Mais (τA ≥ t) = (τAn > t). Ainsi (τAn > t) ∈ Ft , d’où (τA ≥ t) ∈ Ft . Par conséquent
n∈N n∈N
(τA < t) ∈ Ft . La Proposition 6.15 entraine, puisque (Ft )t∈T est continue à droite, que τ[a,b] est un
temps d’arrêts.

Master : AMA 43 Pr. El Maroufy


Bibliographie

[1] I. Karatzas et S.E. Shreve. : Brownian motion and stochastic calculus. Springer-Verlag,
Berlin.(1988).

[2] Peter E. Kloeden et Eckhard Platen, Numerical Solution of Stochastic Differential Equations.
Springer-Verlag Berlin Heidelberg GmbH.(1992).

[3] Søren Asmussen and Peter W. Glynn Stochastic Simulation : Algorithms and Analysis.
Springer.(2000).

[4] Bernt Oksendal. Stochastic Differential Equations : An Introduction with Applications.


2010

[5] Stewart N. Ethier and Thomas G. Kurtz. Markov Processes : Characterization and
Convergence, Wiley. 2005.

[6] Stroock, D.W., Varadhan, S.R.S. Multidimensional Difiusion Processes. Springer-Verlag.


1979.

[7] Revuz, D, York, M. Continuous Martingales and Brownian Motion. Springer-Verlag. 1979.

44

Vous aimerez peut-être aussi