0% ont trouvé ce document utile (0 vote)
80 vues11 pages

CH 1

Ce chapitre présente la théorie des martingales à temps discret. Il définit les notions de filtration, de processus adapté, de martingale, de surmartingale et de sous-martingale, et donne des exemples illustratifs de ces concepts.

Transféré par

Abdoul Aziz BA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
80 vues11 pages

CH 1

Ce chapitre présente la théorie des martingales à temps discret. Il définit les notions de filtration, de processus adapté, de martingale, de surmartingale et de sous-martingale, et donne des exemples illustratifs de ces concepts.

Transféré par

Abdoul Aziz BA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 1

Martingales à temps discret

Dans ce chapitre, on résume la théorie des martingales à temps discret. La plupart des
propriétés seront reprises dans le chapitre suivant, lorsque l’on étudiera les martingales à
temps continu.

0. Rappels sur espérance conditionnelle


Soit (Ω, F , P) un espace de probabilité. Soient ξ, ξ1 et ξ2 des variables aléatoires réelles
intégrables. Soit G ⊂ F une sous-tribu de F .
L’espérance conditionnelle E(ξ | G ) est une variable aléatoire telle que :
• E(ξ | G ) est G -mesurable ;
• E[ |E(ξ | G )| ] < ∞ ;
• ∀A ∈ G , E(ξ 1A ) = E[E(ξ | G ) 1A ].
Il y a, pour E(ξ | G ), existence et unicité (unicité au sens que si η est une variable aléatoire
vérifiant ces propriétés, alors E(ξ | G ) = η p.s.).

• ξ G -mesurable ⇒ E(ξ | G ) = ξ p.s.


• ξ indépendante de G ⇒ E(ξ | G ) = E(ξ) p.s.
• E(ξ) = E[E(ξ | G )].
• a, b ∈ R ⇒ E(aξ1 + bξ2 | G ) = a E(ξ1 | G ) + b E(ξ2 | G ) p.s.
• H ⊂ G sous-tribu ⇒ E[E(ξ | G ) | H ] = E(ξ | H ) p.s.
• η G -mesurable et intégrable ⇒ E(ξη | G ) = ηE(ξ | G ) p.s.
• X et Y des variables aléatoires à valeurs dans les espaces mesurables (E1 , E1 ) et (E2 , E2 )
respectivement, ϕ : E1 × E2 → R mesurable telle que E(|ϕ(X, Y )|) < ∞, Y G -mesurable,
X indépendante de G ⇒ E(ϕ(X, Y ) | G ) = h(Y ) p.s., où h(y) := E(ϕ(X, y)).
• Jensen, Fatou, convergence dominée, convergence monotone.

1
2 Chapitre 1. Martingales à temps discret

• E(ξ1 | G ) ≥ E(ξ2 | G ) p.s. ⇔ E(ξ1 1A ) ≥ E(ξ2 1A ) ∀A ∈ G . [Preuve : voir TD.]

Notation : Lorsque G = σ(Z) où Z est une variable aléatoire à valeurs dans un espace
mesurable quelconque, on écrit souvent E(ξ | Z) à la place de E(ξ | σ(Z)). Plus généralement,
si G = σ(Zi , i ∈ I) est la tribu engendrée par une famille quelconque de variables aléatoires,
on écrit E(ξ | Zi , i ∈ I) à la place de E(ξ | σ(Zi , i ∈ I)).

1. Filtrations et martingales
Soit (Ω, F , P) un espace de probabilité. Une filtration (Fn )n≥0 sur cet espace est une
famille croissante de sous-tribus de F :

F0 ⊂ F1 ⊂ F2 ⊂ · · · ⊂ F .

On appelle (Ω, F , (Fn ), P) un espace de probabilité filtré.


Une suite de variables aléatoires (Xn , n ≥ 0) est appelée un processus aléatoire (ou :
processus stochastique, ou : processus). L’indice n est moralement considéré comme un
paramètre temporel.

Exemple 1.1. Soit (Xn , n ≥ 0) un processus aléatoire. Pour tout n ≥ 0, on pose Fn :=


σ(Xi : 0 ≤ i ≤ n). Alors (Fn )n≥0 est une filtration, que l’on appelle souvent la filtration
naturelle (ou : filtration canonique) de (Xn , n ≥ 0). !

Soit (Fn )n≥0 une filtration, et soit (Xn , n ≥ 0) un processus aléatoire. On dit que
(Xn , n ≥ 0) est adapté par rapport à (Fn ) si pour tout n, Xn est Fn -mesurable. [Lorsqu’il
y a pas de risque d’ambiguı̈té sur le choix de la filtration, on dit simplement que (Xn , n ≥ 0)
est adapté.] Dans l’Exemple 1.1, le processus est adapté.

Définition 1.2. On dit que (Mn ) est une martingale (resp. surmartingale ; sous-martingale)
par rapport à la filtration (Fn ) si
(i) (Mn ) est adapté ;
(ii) ∀ n, E(|Mn |) < ∞ ;
(iii) ∀ n, E(Mn+1 | Fn ) = Mn , p.s. (resp., E(Mn+1 | Fn ) ≤ Mn ; E(Mn+1 | Fn ) ≥ Mn ).

On appellera de temps en temps (iii) l’inégalité caractéristique des sous-martingales (ou


surmartingales), ou l’identité caractéristique des martingales.
§1 Filtrations et martingales 3

Remarquons que si (Mn ) est une surmartingale, alors n +→ E(Mn ) est décroissante.
[L’origine de l’expression : une fonction f sur Rn est surharmonique si et seulement si
pour un mouvement brownien B à valeurs dans Rn , f (B) est une surmartingale locale par
rapport à la filtration naturelle de B.]

Exemple 1.3. (Martingale fermée). Soit ξ une variable aléatoire réelle intégrable. Soit
Mn := E(ξ | Fn ). Alors (Mn ) est une martingale (appellée martingale fermée).
En effet, (Mn ) est adapté d’après la définition de l’espérance conditionnelle, ce qui donne
(i).
Pour tout n, |Mn | ≤ E( |ξ| | Fn) par l’inégalité de Jensen (version conditionnelle). Comme
E(|ξ| | Fn) est intégrable (par la définition de l’espérance conditionnelle), on en déduit que
Mn est également intégrable, ce qui donne (ii).
Enfin, on a E[Mn+1 | Fn ] = E[E(ξ | Fn+1) | Fn ], qui n’est autre que E[ξ | Fn ] (car Fn ⊂
Fn+1 ), c’est-à-dire Mn : d’où (iii). !

Exemple 1.4. Soit (ξi )i≥0 une suite de variables aléatoires intégrables et indépendantes.
!
Soient Mn := ni=0 ξi et Fn := σ{ξi , 0 ≤ i ≤ n}.
Il est clair que (Mn ) est adapté, et est intégrable. De plus, E(Mn+1 | Fn ) = Mn + E(ξn+1 )
p.s. Donc (Mn ) est une martingale si E(ξn ) = 0, ∀n ≥ 1 ; une sous-martingale si E(ξn ) ≥ 0,
∀n ≥ 1 ; et une surmartingale si E(ξn ) ≤ 0, ∀n ≥ 1. !

Exemple 1.5. Soient ξ0 , ξ1 , · · · des variables aléatoires positives et indépendantes, telles


"
que E(ξi ) = 1, ∀i ≥ 1. On pose Mn := ni=0 ξi et Fn := σ(ξi , 0 ≤ i ≤ n), n ≥ 0. Alors
(Mn , n ≥ 0) est une martingale.
En effet, Mn est intégrable, et (Mn , n ≥ 0) adapté. Pour tout n, E(Mn+1 | Fn ) =
E(ξn+1 Mn | Fn ) = Mn E(ξn+1 | Fn ) = Mn p.s. (où l’on a utilisé le fait que ξn+1 est indépen-
dante de Fn pour déduire que E(ξn+1 | Fn ) = E(ξn+1 ) = 1). !

Remarque 1.6. Il est clair que (Mn ) est une sous-martingale si et seulement si (−Mn ) est
une surmartingale, et que (Mn ) est une martingale si et seulement si elle est à la fois une
sous-martingale et une surmartingale. !

Proposition 1.7. Si (Mn ) est une sous-martingale, alors ∀ m > n, E(Mm | Fn ) ≥ Mn , p.s.

Preuve. On a
E(Mm | Fn ) = E[ E(Mm | Fm−1 ) | Fn ] ≥ E[Mm−1 | Fn ].
Ceci démontre le résultat cherché avec un argument par récurrence. !
4 Chapitre 1. Martingales à temps discret

Proposition 1.8. (i) Si (Mn ) et (Nn ) sont des martingales (resp. sous-martingales ; sur-
martingales), alors (Mn + Nn ) en est également une.
(ii) Si (Mn ) et (Nn ) sont des sous-martingales, alors (Mn ∨Nn ) est une sous-martingale.1

Preuve. Élémentaire. !

Proposition 1.9. Soit (Mn ) une martingale, et soit ϕ une fonction convexe. Si E(|ϕ(Mn )|) <
∞, ∀ n, alors (ϕ(Mn )) est une sous-martingale.

Preuve. Par l’inégalité de Jensen,

E[ϕ(Mn+1 ) | Fn ] ≥ ϕ(E[Mn+1 | Fn ]) = ϕ(Mn ).

D’où la conclusion. !

Exemple 1.10. Soit p ≥ 1, et soit (Mn ) une martingale telle que E(|Mn |p ) < ∞. Alors
(|Mn |p ) est une sous-martingale.
Il suffit d’appliquer la Proposition 1.9 à la fonction convexe ϕ(x) = |x|p . !

2. Théorème d’arrêt
Soit (Ω, F , (Fn ), P) un espace de probabilité filtré, et l’on note

F∞ := σ(Fn , n ≥ 0) ,

c’est-à-dire la tribu engendrée par les éléments de l’ensemble des tribus Fn .


Une application T : Ω → {0, 1, 2, · · · } ∪ {∞} est appelée un temps d’arrêt si pour
tout n ≤ ∞, {T ≤ n} ∈ Fn . Il est clair que T est un temps d’arrêt si et seulement si
{T = n} ∈ Fn , ∀ n ≤ ∞.

Exemple 2.1. (Temps d’arrêt déterministes) Fixons un entier positif k ≥ 0. Posons T (ω) :=
k, ω ∈ Ω. Alors T est un temps d’arrêt.
Un autre exemple de temps d’arrêt déterministe est T (ω) := ∞, ω ∈ Ω. !
1
Notations : a ∨ b := max{a, b} et a ∧ b := min{a, b}.
§2 Théorème d’arrêt 5

Exemple 2.2. (Temps d’atteinte) Soit (Xn ) un processus adapté par rapport à la filtration
(Fn ), à valeurs dans un espace mesurable (E, E ). Soit B ∈ E . Posons

TB := inf{n ≥ 0 : Xn ∈ B} ,

avec la convention inf ∅ := ∞ (c’est-à-dire, si Xn (ω) ∈


/ B pour tout n ≥ 0, alors TB (ω) = ∞).
On vérifie très facilement par définition que TB est un temps d’arrêt. En effet, TB est à
valeurs dans {0, 1, 2, · · · } ∪ {∞} ; de plus, pour tout entier n ≥ 0, {TB ≤ n} = ∪nk=0 {Xk ∈
B} qui est un élément de Fn car {Xk ∈ B} ∈ Fk ⊂ Fn pour k ≤ n. !

Exemple 2.3. (Temps de passages successifs) Soit (Xn ) un processus adapté par rapport
à la filtration (Fn ), à valeurs dans un espace mesurable (E, E ). Soit (Bk , k ≥ 0) une
suite d’éléments (pas nécessairement distincts) de E . On définit, par récurrence, la suite
(Tk , k ≥ 0) par T0 := 0 et pour k ≥ 1,

Tk := inf{n > Tk−1 : Xn ∈ Bk } ,

avec la convention inf ∅ := ∞. Alors (Tk , k ≥ 0) est une suite de temps d’arrêt. [Voir TD.]
!

Soit T un temps d’arrêt. La tribu FT des événements antérieurs à T , que l’on appellera
également “tribu engendrée par le temps d’arrêt T ”, est définie par

FT = {A ∈ F∞ : ∀ n, A ∩ {T = n} ∈ Fn }
= {A ∈ F∞ : ∀ n, A ∩ {T ≤ n} ∈ Fn }.

Exemple 2.4. Fixons un entier k ≥ 0, et considérons le temps d’arrêt déterministe T (ω) :=


k, ω ∈ Ω. Alors FT = Fk .
De même, pour le temps d’arrêt déterministe T (ω) := ∞, ω ∈ Ω. Alors FT = F∞ . !

Propriété 2.5. Soient S et T des temps d’arrêt.


(i) Alors S ∨ T et S ∧ T sont aussi des temps d’arrêt, et FS∧T = FS ∩ FT .
(ii) Si S ≤ T , alors FS ⊂ FT .
(iii) Si (Xn ) est un processus à valeurs dans Rd et est adapté par rapport à (Fn ), alors
XT 1{T <∞} est FT -mesurable.2 Si, de plus, X∞ (ω) := limn→∞ Xn (ω) existe pour tout ω ∈ Ω
et est finie, alors XT est FT -mesurable.
2
Notation : Pour ω ∈ {T < ∞}, XT (ω) := XT (ω) (ω).
6 Chapitre 1. Martingales à temps discret

Preuve. (ii) Si A ∈ FS , alors A ∩ {T ≤ n} = (A ∩ {S ≤ n}) ∩ {T ≤ n} ∈ Fn .


(i) On a {S ∨ T ≤ n} = {S ≤ n} ∩ {T ≤ n}, et {S ∧ T ≤ n} = {S ≤ n} ∪ {T ≤ n}.
D’après (ii), FS∧T ⊂ FS et FS∧T ⊂ FT ; donc FS∧T ⊂ FS ∩ FT .
Inversement, soit A ∈ FS ∩ FT . Alors pour tout n ≥ 0, A ∩ {S ≤ n} ∈ Fn et A ∩ {T ≤
n} ∈ Fn ; d’où A∩{(S ∧T ) ≤ n} = A∩({S ≤ n}∪{T ≤ n}) = (A∩{S ≤ n})∪(A∩{T ≤ n})
qui est un élément de Fn , étant réunion de deux éléments de Fn .
!
(iii) On voit que XT 1{T <∞} = ∞ T =0 Xn 1{T =n} est F∞ -mesurable, et que pour tout A ⊂
Rd borélien et tout entier n ≥ 0, {XT 1{T <∞} ∈ A} ∩ {T = n} = {Xn ∈ A} ∩ {T = n} ∈ Fn .
Supposons maintenant que Xn (ω) → X∞ (ω) pour tout ω ∈ Ω. Il reste de vérifier, dans
ce cas, que X∞ 1{T =∞} est FT -mesurable, ce qui est immédiat car elle est évidemment F∞ -
mesurable, et pour tout A ⊂ Rd borélien et tout entier n ≥ 0, {X∞ 1{T =∞} ∈ A} ∩ {T = n}
est un élément de Fn (il vaut {T = n} si 0 ∈ A, et est vide si 0 ∈
/ A). !

On s’intéresse maintenant au processus (MT ∧n ) arrêté à un temps d’arrêt T .

Théorème 2.6. Si T est un temps d’arrêt, et si (Mn ) est une sous-martingale, alors (MT ∧n )
est une sous-martingale.

Preuve. Comme |MT ∧n | ≤ |M0 | + |M1 | + · · · + |Mn |, MT ∧n est intégrable. Il est clair que
(MT ∧n ) est adapté, car MT ∧n est FT ∧n -mesurable, et cette dernière est une sous-tribu de
Fn . Enfin, puisque {T ≥ n + 1} = {T ≤ n}c ∈ Fn ,
# $ # $
E (MT ∧(n+1) − MT ∧n ) | Fn = E (Mn+1 − Mn )1{T ≥n+1} | Fn
# $
= 1{T ≥n+1} E (Mn+1 − Mn ) | Fn ≥ 0,

ce qu’il fallait démontrer. !

Théorème 2.7. (Théorème d’arrêt) Soient S et T deux temps d’arrêt bornés tels que
S ≤ T , p.s. Si (Mn ) est une sous-martingale, alors

E(MT | FS ) ≥ MS , p.s.

Preuve. Supposons que P(S ≤ T ≤ k) = 1. Alors |MT | ≤ |M0 | + |M1 | + · · · + |Mk | qui est
intégrable. Soit A ∈ FS . On a
k
%
E[MT 1A ] = E[MT ∧k 1A∩{S=n} ].
n=0
§3 Intégrabilité uniforme 7

Comme A ∩ {S = n} ∈ Fn , et (MT ∧n ) est une sous-martingale, on a

E[MT ∧k 1A∩{S=n} ] ≥ E[MT ∧n 1A∩{S=n} ] = E[MS 1A∩{S=n} ],

la dernière identité provenant du fait que MT ∧n = MS sur {S = n}. On a donc montré que
!
E[MT 1A ] ≥ kn=0 E[MS 1A∩{S=n} ] = E[MS 1A ]. !

Corollaire 2.8. Soit (Mn ) une sous-martingale. Si S ≤ T sont des temps d’arrêt bornés,
alors E(MS ) ≤ E(MT ). En particulier, pour tout temps d’arrêt borné T , on a E(MT ) ≥
E(M0 ).

Preuve. Il suffit d’appliquer le théorème d’arrêt. !

Remarque 2.9. On utilise souvent la forme suivante du Corollaire 2.8 : si (Mn ) est une
sous-martingale, et si T est un temps d’arrêt (quelconque), alors pour tout n ≥ 0, E(MT ∧n ) ≥
E(M0 ). !

Théorème 2.10. (Inégalité de Doob) Soit (Mn ) une martingale. On a


& '
E max Mk2 ≤ 4E(Mn2 ), ∀n,
0≤k≤n
& '
E max Mk2 ≤ 4 max E(Mk2 ).
k≥0 k≥0

Preuve. Exercice aux TD. Il est clair que la seconde inégalité est une conséquence de la
première et du théorème de convergence monotone. !

3. Intégrabilité uniforme
La notion d’intégrabilité uniforme jouera un rôle crucial dans l’étude de convergence dans
L1 pour les martingales.
Soit (Xi , i ∈ I) une famille de variables aléatoires réelles, indexée par un ensemble I non
vide, définie sur (Ω, F , P). Attention : On ne suppose pas que I soit dénombrable.

Définition 3.1. On dit que (Xi , i ∈ I) est uniformément intégrable (ou : équi-intégrable)
si
lim sup E[ |Xi | 1{|Xi |>a} ] = 0.
a→∞ i∈I
8 Chapitre 1. Martingales à temps discret

Exemple 3.2. Soit Y une variable aléatoire réelle intégrable. Alors Y est uniformément
intégrable.
En effet, E[ |Y | 1{|Y |>a} ] → 0 (quand a → ∞) par convergence dominée. !

Exemple 3.3. Soient (Xi , i ∈ I) et (Yi , i ∈ I) des familles de variables aléatoires réelles
telle que |Xi | ≤ Yi , ∀i ∈ I. Si, (Yi , i ∈ I) est uniformément intégrable, alors (Xi , i ∈ I) l’est
également.
En particulier, si |Xi | ≤ Y , ∀i ∈ I, où Y est intégrable. Alors (Xi , i ∈ I) est uni-
formément intégrable. !

Exemple 3.4. Soit (Xi , i ∈ I) une famille de variables aléatoires réelles uniformément
intégrable, alors (Xi+ , i ∈ I) l’est également.
En effet, |Xi+ | ≤ |Xi |, ∀i ∈ I. !

Théorème 3.5. Une famille de variables aléatoires réelles (Xi , i ∈ I) est uniformément
intégrable si et seulement si les deux conditions suivantes sont satisfaites :
(i) supi∈I E[ |Xi | ] < ∞ ;
(ii) ∀ ε > 0, ∃ δ > 0 tel que A ∈ F , P(A) ≤ δ ⇒ supi∈I E[ |Xi | 1A ] ≤ ε.

Preuve. Exercice aux TD. !

Exemple 3.6. Si (Xi , i ∈ I) et (Yi , i ∈ I) sont deux familles de variables aléatoires


uniformément intégrables. Alors (Xi + Yi , i ∈ I) est aussi uniformément intégrable.
Il suffit d’appliquer le Théorème 3.5. [On peut aussi directement prouver le résultat en
utilisant seulement la définition.] !

Théorème 3.7. Soient X, X1 , X2 , · · · des variables aléatoires réelles. Alors

L1 P.
Xn −→X ⇐⇒ (Xn ) uniformément intégrable, et Xn −→X.

Preuve. Exercice aux TD. !

Théorème 3.8. Si Y est une variable aléatoire réelle intégrable, alors


& '
E(Y | G ); G ⊂ F sous-tribu est uniformément intégrable.

Preuve. Exercice aux TD. !


§4 Convergences 9

4. Convergences
On étudie différents modes de convergence pour les martingales.

Théorème 4.1. Si (Mn ) est une sous-martingale telle que

sup E(Mn+ ) < ∞,


n

alors M∞ := limn→∞ Mn existe p.s., et E(|M∞ |) < ∞.

Preuve. Admise. [Aux TD, on va prouver que E(|M∞ |) < ∞.]

Théorème 4.2. Si (Mn ) est une surmartingale positive, alors M∞ := limn→∞ Mn existe
p.s., et E(M∞ ) ≤ E(M0 ).

Preuve. L’existence de M∞ provient du fait que (−Mn ) est une sous-martingale telle que
(−Mn )+ = 0 et donc supn E[(−Mn )+ ] < ∞. Puisque E(Mn ) ≤ E(M0 ), le lemme de Fatou
nous dit que E(M∞ ) ≤ lim inf n E(Mn ) ≤ E(M0 ). !

Théorème 4.3. Soit (Mn ) une sous-martingale uniformément intégrable. Alors


(i) Mn → M∞ dans L1 ;
(ii) Mn → M∞ p.s. ;
(iii) ∀n, Mn ≤ E(M∞ | Fn ), p.s.

Preuve. L’intégrabilité uniforme implique que supn E(|Mn |) < ∞. Par le Théorème 4.1,
Mn → M∞ p.s., qui est intégrable. La convergence dans L1 , quant à elle, est une conséquence
de converge p.s. et de l’intégrabilité uniforme (et n’a rien à voir avec la propriété de sous-
martingale).
Par la Proposition 1.7, si m > n et A ∈ Fn , alors E(Mm 1A ) ≥ E(Mn 1A ). En faisant
m → ∞, et vu la convergence dans L1 , on a E(Mm 1A ) → E(M∞ 1A ). Donc E(Mn 1A ) ≤
E(M∞ 1A ) pour tout A ∈ Fn . Autrement dit, Mn ≤ E(M∞ | Fn ), p.s. !

Théorème 4.4. Soit (Mn ) une sous-martingale uniformément intégrable. Alors pour tout
temps d’arrêt T , (MT ∧n ) est une sous-martingale uniformément intégrable.

Preuve. Exercice aux TD. !


10 Chapitre 1. Martingales à temps discret

Corollaire 4.5. Soit (Mn ) une sous-martingale uniformément intégrable. Si T est un temps
d’arrêt, alors E(MT ) ≥ E(M0 ).

Preuve. Soit n ≥ 1. Alors T ∧ n est un temps d’arrêt borné. D’après le Corollaire 2.8,
E(MT ∧n ) ≥ E(M0 ). Il suffit alors de constater que MT ∧n → MT p.s., et d’appliquer le
Théorème 3.7. !

Exemple 4.6. Soit (Mn ) une sous-martingale uniformément intégrable. Si T est un temps
d’arrêt, alors
E(M0 ) ≤ E(MT ) ≤ E(M∞ ),
où M∞ est la limite p.s. et dans L1 de Mn quand n → ∞.
En effet, par le Théorème 2.7 (théorème d’arrêt, version pour les temps d’arrêt bornés),
E(M0 ) ≤ E(MT ∧n ) ≤ E(Mn ). On fait n → ∞. Par les Théorèmes 4.4 et 4.3, Mn → M∞
dans L1 et MT ∧n → MT dans L1 . D’où la conclusion cherchée. !

Théorème 4.7. (Théorème d’arrêt). Soit (Mn ) une sous-martingale uniformément in-
tégrable. Alors pour tous temps d’arrêt S ≤ T , on a

E(MT | FS ) ≥ MS , p.s.

Preuve. D’après le Théorème 4.4 et l’Exemple 4.6, E(MS ) ≤ E(MT ).


Soit A ∈ FS , et soit
R = S 1A + T 1 A c ,
qui est un temps d’arrêt, tel que R ≤ T . D’après ce que l’on vient de démontrer, E(MR ) ≤
E(MT ). Puisque R = T sur Ac , on a E(MS 1A ) = E(MR 1A ) ≤ E(MT 1A ). Ceci étant vrai
pour tout A ∈ FS , on obtient E(MT | FS ) ≥ MS , p.s. !

Théorème 4.8. Si (Mn ) est une martingale telle que

sup E(Mn2 ) < ∞,


n≥0

alors Mn → M∞ p.s. et dans L2 .


De plus, Mn = E(M∞ | Fn ) p.s.

Preuve. D’après l’inégalité de Doob, supn |Mn | ∈ L2 , et est a fortiori intégrable. D’après le
Théorème 4.3, on a convergence p.s. et Mn = E(M∞ | Fn ) p.s.
Puisque |Mn − M∞ |2 ≤ (2 supn |Mn |)2 p.s., le théorème de convergence dominée implique
que E(|Mn − M∞ |2 ) → 0. !
§5 Décomposition de Doob 11

5. Décomposition de Doob
Soit (Ω, F , (Fn ), P) un espace de probabilité filtré.

Définition 5.1. Une famille (Yn , n ≥ 1) de variables aléatoires est dite prévisible si pour
tout n ≥ 1, Yn est Fn−1 -mesurable.

Théorème 5.2. (Décomposition de Doob) Toute sous-martingale (Xn ) s’écrit comme


Xn = Mn + An , où (Mn ) est une martingale, et (An ) est prévisible telle que A0 = 0.
Cette décomposition est unique. En plus, (An ) est croissante.

Preuve. (Unicité). Si (Mn ) et (An ) satisfont les conditions du théorème, alors

E[Xn | Fn−1 ] = E[Mn | Fn−1 ] + E[An | Fn−1] = Mn−1 + An = Xn−1 − An−1 + An .

Donc on a nécessairement An − An−1 = E[Xn | Fn−1 ] − Xn−1 p.s. La condition A0 = 0


implique que le choix de (An ) (dont aussi celui de (Mn )) est unique.
(Existence) Soit (An ) telle que An − An−1 = E[Xn | Fn−1] − Xn−1 , et que A0 = 0. Comme
(Xn ) est une sous-martingale, on a An − An−1 ≥ 0, et (An ) est donc croissante. De plus,
!
An = ni=1 {E[Xi | Fi−1 ] − Xi−1 } est Fn−1 -mesurable.
Pour montrer que (Mn := Xn −An ) est une martingale, on constate que Mn est intégrable
et adapté, tel que

E[Mn | Fn−1 ] = E[Xn − An | Fn−1 ] = E[Xn | Fn−1 ] − An = Xn−1 − An−1 = Mn−1 .

Donc (Mn ) est une martingale. !

Une martingale (Xn ) est dite de carré intégrable si E[Xn2 ] < ∞ pour tout n. Dans
ce cas, (Xn2 ) est une sous-martingale. Soit Xn2 = Mn + An sa décomposition de Doob. La
preuve du théorème précédent nous dit par ailleurs que
n (
% ) %n
2 2
An = E[Xi | Fi−1 ] − Xi−1 = E[(Xi − Xi−1 )2 | Fi−1 ].
i=1 i=1

Vous aimerez peut-être aussi