0% ont trouvé ce document utile (0 vote)
40 vues17 pages

MM010 TD10C

Le document traite des concepts de probabilités, en particulier l'espérance conditionnelle et les martingales, à travers plusieurs exercices. Il aborde des résultats sur les variables aléatoires, y compris des démonstrations sur les relations entre l'espérance conditionnelle et la covariance. Les solutions fournissent des calculs détaillés et des exemples illustrant les théorèmes de probabilité.

Transféré par

plas
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
40 vues17 pages

MM010 TD10C

Le document traite des concepts de probabilités, en particulier l'espérance conditionnelle et les martingales, à travers plusieurs exercices. Il aborde des résultats sur les variables aléatoires, y compris des démonstrations sur les relations entre l'espérance conditionnelle et la covariance. Les solutions fournissent des calculs détaillés et des exemples illustrant les théorèmes de probabilité.

Transféré par

plas
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Pierre et Marie Curie 2012-2013

Probabilités de base - MM010 Feuille 10

Espérance conditionnelle, martingales

1. Soit X une variable aléatoire de loi N (0, 1). Calculer E[X 2 |X] et E[X|X 2 ].
Solution de l’exercice 1. La variable aléatoire X 2 est une fonction de X, donc elle est
égale à son espérance conditionnelle sachant X :
E[X 2 |X] = X 2 .
Soit maintenant g une fonction mesurable bornée. On a
Z ∞
1 x2
2
E[Xg(X )] = √ xg(x2 )e− 2 dx = 0,
2π −∞
car la fonction que l’on intègre est impaire. La variable aléatoire nulle est une fonction
de X 2 et on a donc, pour toute fonction mesurable bornée g, l’égalité E[Xg(X 2 )] =
E[0g(X 2 )]. On en déduit que
E[X|X 2 ] = 0.

2. Soient X et Y deux variables aléatoires. On suppose que E[|X|] < +∞.


a. Montrer que si E[X|Y ] est une constante, alors cette constante est E[X].
b. Montrer qu’on peut avoir E[X|Y ] = E[X] sans que X et Y soient indépendantes.
c. On suppose que X et Y admettent des moments d’ordre 2. Quels liens logiques y
a-t-il entre les propriétés E[X|Y ] = E[X] et Cov(X, Y ) = 0 ?
Solution de l’exercice 2. a. Supposons que E[X|Y ] soit égale à une constante c. Puisque
E[E[X|Y ]] = E[X], on a
E[X] = E[E[X|Y ]] = E[c] = c,
donc c = E[X].
b. Prenons X de loi N (0, 1) et Y = X 2 . On a E[X|Y ] = 0 d’après l’exercice précédent.
En particulier, E[X|Y ] = E[X]. Toutefois, X n’est pas indépendante de Y , sinon X 2 serait
indépendante de Y , c’est-à-dire d’elle-même, donc X 2 serait constante, ce qui n’est pas le
cas.
Finalement, l’égalité E[X|Y ] = E[X] n’entraîne pas l’indépendance de X et Y .
c. Supposons que E[X|Y ] = E[X]. Pour tout n ≥ 1, nous avons
E[X max(min(Y, n), −n)] = E[E[X|Y ] max(min(Y, n), −n)] = E[X]E[max(min(Y, n), −n)],
car la fonction t 7→ max(min(t, n), −n) est mesurable et bornée. Lorsque n tend vers l’in-
fini, le théorème de convergence dominée permet de passer à la limite dans les espérances
et on obtient E[XY ] = E[X]E[Y ], donc Cov(X, Y ) = 0.

1
La réciproque n’est en revanche pas vraie. Prenons Z de loi gaussienne centrée réduite,
X = Z 2 et Y = Z. On a Cov(X, Y ) = E[Z 3 ] − E[Z 2 ]E[Z] = 0, mais E[X|Y ] = X 6= E[X].
Finalement, l’égalité E[X|Y ] = E[X] entraîne Cov(X, Y ) = 0, mais la réciproque est
fausse.

3. Soient X1 , X2 , X3 , X4 des variables aléatoires indépendantes de loi de Bernoulli de


paramètre p ∈ [0, 1]. Calculer E[X1 + X2 |X1 , X2 , X3 , X4 ] et E[X1 + X2 |X1 + X2 + X3 + X4 ].

Solution de l’exercice 3. La variable aléatoire X1 +X2 est l’image du vecteur (X1 , X2 , X3 , X4 )


par la fonction (a, b, c, d) 7→ a + b, donc
E[X1 + X2 |X1 , X2 , X3 , X4 ] = X1 + X2 .
Les vecteurs (X1 , X2 , X3 , X4 ) et (X2 , X3 , X4 , X1 ) ont même loi. En leur appliquant la
fonction (a, b, c, d) 7→ (a, a+b+c+d), on en déduit que les couples (X1 , X1 +X2 +X3 +X4 )
et (X2 , X1 + X2 + X3 + X4 ) ont même loi. En leur appliquant les fonctions (a, b, c, d) 7→
(b, a + b + c + d), (a, b, c, d) 7→ (c, a + b + c + d) et (a, b, c, d) 7→ (d, a + b + c + d), on
trouve même que les quatre vecteurs (X1 , X1 + X2 + X3 + X4 ), (X2 , X1 + X2 + X3 + X4 ),
(X3 , X1 + X2 + X3 + X4 ) et (X4 , X1 + X2 + X3 + X4 ) ont même loi. Ceci entraîne, en
notant S = X1 + X2 + X3 + X4 , les égalités
E[X1 |S] = E[X2 |S] = E[X3 |S] = E[X4 |S].
En sommant ces égalités, on trouve E[X1 |S] = 41 E[S|S] = S4 . On trouve donc
X1 + X2 + X3 + X4
E[X1 + X2 |X1 + X2 + X3 + X4 ] = .
2

4. Soit (X, Y, Z) un vecteur aléatoire de densité f(X,Y,Z) (x, y, z) = ce−z−2x 10≤x≤y≤z


où c est une constante réelle.
a. Déterminer c.
b. Calculer E[X|Y, Z], E[Y |X, Z], E[X|Y ] et E[Y |X].
Solution de l’exercice 4. a. On cherche c pour que l’intégrale de la fonction f soit
positive. On a
Z Z +∞ Z +∞ Z +∞  
−2x −z
f(X,Y,Z) (x, y, z) dxdydz = c e e dz dy dx
R3 0 x y
Z +∞ Z +∞ 
−2x −y
=c e e dy dx
0 x
Z +∞
=c e−3x dx
0
c
= ,
3

2
donc c = 3.
b. Soit g : R2 → R une fonction mesurable bornée. Calculons E[Xg(Y, Z)]. On a
Z Z y 
−z −2x
E[Xg(Y, Z)] = 3 g(y, z)e xe dx dydz
0≤y≤z 0
−2y
−z 1 − e − 2ye−2y
Z
=3 g(y, z)e dydz.
0≤y≤z 4
Par ailleurs, on a
Z Z y 
−z −2x
E[g(Y, Z)] = 3 g(y, z)e e dx dydz
0≤y≤z 0
1 − e−2y
Z
=3 g(y, z)e−z dydz,
0≤y≤z 2

donc la loi de (Y, Z) admet la densité 3e−z 1−e2 10≤y≤z . On a donc


−2y

1 − e−2y − 2ye−2y −z 1 − e−2y


Z
E[Xg(Y, Z)] = 3 g(y, z) e dydz
0≤y≤z 2(1 − e−2y ) 2
1 − e−2Y − 2Y e−2Y
 
=E g(Y, Z) ,
2(1 − e−2Y )
d’où l’on déduit que
1 − e−2Y − 2Y e−2Y
E[X|Y, Z] = .
2(1 − e−2Y )
Calculons maintenant E[Y g(X, Z)]. On trouve
Z Z z 
−x−2z
E[Y g(X, Z)] = 3 g(x, z)e y dy dxdz
0≤x≤z x
2 2
−x−2z z − x
Z
=3 g(x, z)e dxdz
0≤x≤z 2
Z
z+x
=3 g(x, z)e−x−2z (z − x) dxdz
2
0≤x≤z 
X +Z
=E g(X, Z) ,
2
puisqu’on vérifie immédiatement que la loi du vecteur (X, Z) admet la densité f(X,Z) (x, z) =
e−x−2z (z − x)10≤x≤z . Ainsi,
X +Z
E[Y |X, Z] = .
2
Il n’y a pas besoin de calcul pour déterminer E[X|Y ]. En effet,
1 − e−2Y − 2Y e−2Y 1 − e−2Y − 2Y e−2Y
 
E[X|Y ] = E[E[X|Y, Z]|Y ] = E Y = ,
2(1 − e−2Y ) 2(1 − e−2Y )

3
puisque E[X|Y, Z] est une fonction de Y .
Enfin, on choisit une fonction g : R → R mesurable bornée et on calcule E[Y g(X)] :
Z
E[Y g(X)] = 3 yg(x)e−z−2x dxdydz
Z0≤x≤y≤z
=3 yg(x)e−y−2x dxdy
0≤x≤y
Z Z +∞ 
−2x −y
=3 g(x)e ye dy dx
0≤x x
Z Z +∞ 
−2x −y
=3 g(x)e ye dy dx
0≤x x
Z
=3 (x + 1)g(x)e−3x dx
0≤x
= E[(X + 1)g(X)],

car X suit la loi exponentielle de paramètre 3. On a donc

E[Y |X] = X + 1.

5. Soit p ∈]0, 1[ un réel. Soient X et Y deux variables aléatoires à valeurs entières


telles que pour tous k, l ∈ N on ait
 p k k l
P(X = k, Y = l) = (1 − p) .
e l!
Calculer E[Y |X].
Solution de l’exercice 5. Calculons la loi de X. Pour tout k ≥ 0, on a
+∞ +∞ l
X
k −k
X k
P(X = k) = P(X = k, Y = l) = (1 − p)p e = (1 − p)pk .
l=0 l=0
l!

La variable X suit donc une loi géométrique de paramètre p.

4
Soit g : R → R une fonction mesurable bornée. On a
+∞
X
E[Y g(X)] = lg(k)P(X = k, Y = l)
k,l=0
+∞
X kl
= (1 − p) lg(k)pk e−k
k,l=0
l!
+∞ +∞
X X kl
= (1 − p) g(k)pk e−k l
k=0 l=0
l!
+∞ +∞
X X k l−1
= (1 − p) g(k)pk e−k k
k=0 l=1
(l − 1)!
+∞
X
= (1 − p) kg(k)pk
k=0
= E[Xg(X)].
Ainsi, E[Y |X] = X.

6. Soient N, X1 , X2 , . . . des variables aléatoires indépendantes. On suppose qu’il existe


M tel que |Xn | ≤ M pour tout n ≥ 1 et E[Xn ] = E[X PN1 ]. On suppose N à valeurs dans

N et intégrable. Montrer que la variable aléatoire n=1 Xn est intégrable, calculer son
espérance conditionnelle sachant N et en déduire la formule
" N #
X
E Xn = E[N ]E[X1 ].
n=1

Solution de l’exercice 6. L’inégalité


N
X N
X
Xn ≤ |Xn | ≤ N M
n=1 n=1

(où l’on prendra garde au fait que M est une constante et N une variable aléatoire)
entraîne puisque N est intégrable l’inégalité
" N #
X
E Xn ≤ M E[N ] < ∞
n=1

qui est la définition du fait que la variable aléatoire N


P
n=1 Xn soit intégrable.
On peut donc parler de l’espérance de cette variable aléatoire. Pour calculer cette
espérance, on écrit

N N
! ∞ k
! l k
!
1N =k 1N =k 1N =k
X X X X X X X
Xn = Xn = Xn = lim Xn .
l→∞
n=1 k=1 n=1 k=1 n=1 k=1 n=1

5
Pour tout l ≥ 0, on a
l k
! N
1N =k = 1N ≤l
X X X
Xn |Xn | ≤ M N.
k=1 n=1 n=1

Puisque la variable aléatoire M N est intégrable, le théorème de convergence dominée,


les hypothèses d’indépendance entre les variables N et X1 , X2 , . . . et l’hypothèse que les
variables X1 , X2 , . . . ont toutes la même espérance permettent d’écrire
" N # " l k
!#
1N =k
X X X
E Xn = lim E Xn
l→∞
n=1 k=1 n=1
l k
!
X X
= lim P(N = k) E[Xn ]
l→∞
k=1 n=1
l
X
= E[X1 ] lim kP(N = k)
l→∞
k=1
= E[X1 ]E[N ],

conformément à ce qui était attendu.


Il n’aurait pas été beaucoup plus difficile de montrer que
" N #
X
E Xk N = N E[X1 ].
k=1

En effet, pour toute fonction g : N∗ → R bornée, on a


" N
# " l k
!#
1N =k g(k)
X X X
E g(N ) Xn = lim E Xn
l→∞
n=1 k=1 n=1
l k
!
X X
= lim P(N = k)g(k) E[Xn ]
l→∞
k=1 n=1
l
X
= E[X1 ] lim kg(k)P(N = k)
l→∞
k=1
= E [N E[X1 ]g(N )] .

Le résultat s’en déduit en prenant l’espérance de part et d’autre de l’égalité.

7. Soient X et Y deux variables aléatoires qui admettent un moment d’ordre 2. On


suppose que E[X|Y ] = Y et E[Y |X] = X. Montrer que X = Y .

6
Solution de l’exercice 7. Calculons E[(X − Y )2 ]. Puisque X et Y ont des moments
d’ordre 2, les variables aléatoires X 2 , XY et Y 2 sont intégrables et on a

E[(X − Y )2 ] = E[X 2 ] + E[Y 2 ] − 2E[XY ].

Calculons maintenant E[XY ] en conditionnant par rapport à Y . Puisque X et XY sont


intégrables, un théorème du cours affirme que

E[XY ] = E [E[X|Y ]Y ] .

Puisque E[X|Y ] = Y , ceci entraîne l’égalité

E[XY ] = E[Y 2 ].

En échangeant X et Y dans les cinq lignes qui précèdent, on obtient une démonstration
de l’égalité
E[XY ] = E[X 2 ].
De ces calculs, nous déduisons que

E[(X − Y )2 ] = E[X 2 ] + E[Y 2 ] − E[XY ] − E[XY ] = E[X 2 ] + E[Y 2 ] − E[X 2 ] − E[Y 2 ] = 0.

Ainsi, la variable aléatoire (X − Y )2 est positive et d’espérance nulle. Elle est donc nulle
presque sûrement, si bien que X = Y presque sûrement.

8. On considère sur l’espace de probabilités ([0, 1[, B[0,1[ , Leb) et pour tout n ≥ 0 la
tribu Fn définie par
  
k k+1
Fn = σ , n
: k ∈ {0, . . . , 2 − 1} .
2n 2n
On considère la variable aléatoire Z : [0, 1[→ R définie pour tout t ∈ [0, 1[ par Z(t) = t.
a. Montrer que (Fn )n≥0 est une filtration.
b. Calculer, pour tout n ≥ 0, l’espérance conditionnelle Xn = E[Z|Fn ].
c. Montrer que la suite de variables aléatoires (Xn )n≥0 est une martingale qui converge
presque sûrement vers une limite que l’on déterminera.
Solution de l’exercice 8. a. Pour tout n ≥ 0, Fn est par définition une sous-tribu
de B[0,1[ . C’est,
 k k+1toujours
 par définition, la plus petite tribu qui contienne chacun des
intervalles 2n , 2n , k ∈ {0, . . . , 2n − 1}.
Bien que ce ne soit pas explicitement demandé par l’énoncé, il est utile de voir ce que
sont les éléments de Fn : ce sont tous les ensembles que l’on peut former en faisant la
réunion de certains de ces intervalles. Autrement dit, il y a autant d’éléments dans Fn
n
que de parties de {0, . . . , 2n − 1}, c’est-à-dire 22 . Pour toute partie K ⊂ {0, . . . , 2n−1 },
l’ensemble
[  k k + 1
AK = n
, n
k∈K
2 2

7
est un élement de Fn et tout élément de Fn est de cette forme.
Pour montrer que la suite de sous-tribus (Fn )n≥0 est une filtration, il nous fautmontrer
que Fn ⊂ Fn+1 . Pour cela, il suffit de montrer que chacun des intervalles 2kn , k+1 2n
appartient à Fn+1 . En effet, par définition de Fn , toute tribu qui contient chacun de ces
intervalles contient la tribu Fn .
Or l’égalité
     
k k+1 2k 2k + 1 2k + 1 2k + 2
, = n+1 , n+1 ∪ , n+1 ,
2n 2n 2 2 2n+1 2
vraie pour tout k ∈ {0, . . . , 2n − 1}, montre que l’intervalle 2kn , k+1 appartient à Fn+1 .
 
2n

b. Ici encore, bien que ce ne soit pas demandé, il est utile de comprendre ce que sont
les fonctions mesurables Y : ([0, 1[, Fn ) → (R, BR ). En effet, nous savons que l’espérance
conditionnelle E[X|Fn ] est une variable aléatoire de cette forme.
Nous allons montrer qu’une application Y : [0, 1[→ R est mesurable par rapport
à Fn et BR si et seulement si elle est constante sur chacun des intervalles 2kn , k+1

2n ,
k ∈ {0, . . . , 2n − 1}.
Supposons tout d’abord Y mesurable par rapport à Fn et BR . Notons a = Y (0).
La partie Y −1 ({a})  = {Y = a} de [0, 1[ contient 0 et appartient à Fn . Elle contient
donc l’intervalle 0, 21n . Ainsi, Y est constante sur cet intervalle. Le même raisonnement
k n
effectué au point  k 2nk+1  tout k ∈ {1, . . . , 2 − 1} montre que Y est constante sur chacun
pour
des intervalles 2n , 2n .
Réciproquement, si Y est constante sur chaque intervalle 2kn , k+1
 
2n
, on peut écrire Y
sous la forme n −1
2X  
k
Y = Y n
1[ 2kn , k+1
2n [
k=0
2
qui montre que Y est une combinaison linéaire d’indicatrices d’événements de Fn , donc
mesurable par rapport à Fn .
Venons-en au calcul de l’espérance conditionnelle de Z sachant Fn . Puisque Z est
bornée, elle est intégrable et cette espérance conditionnelle existe. C’est, par définition,
une variable aléatoire Fn -mesurable Xn telle que pour tout événement A ∈ Fn on ait
E[Z 1A ] = E[Xn 1A ].
Vu la description que nous avons donnée des éléments de Fn , il suffit d’avoir cette égalité
k k+1

lorsque A est un intervalle 2n , 2n , le cas général s’en déduisant par linéarité. Soit donc
k ∈ {0, . . . , 2n − 1}. La variable Xn doit satisfiare l’égalité
Z k+1 Z k+1
2n 2n
Z(t) dt = Xn (t) dt
k k
2n 2n

et être Fn -mesurable, donc constante sur l’intervalle 2kn , k+1


 
2n
. On doit donc avoir
Z k+1   Z k+1 Z k+1
2n 1 k 2n 2n 2k + 1
Xn (t) dt = n Xn n
= Z(t) dt = t dt = 2n+1 ,
k
2n
2 2 k
2n
k
2n
2

8
si bien que  
k 2k + 1
Xn = .
2n 2n+1
Puisque ce calcul est valable pour tout k ∈ {0, . . . , 2n − 1}, on a
n −1
2X
k + 21
Xn = 1 k k+1 .
k=0
2n [ 2n , 2n [

Voici en bleu le graphe de Z et en rouge celui de X3 .


1
7
8
3
4
5
8
1
2
3
8
1
4
1
8

1 1 3 1 5 3 7
0 1
8 4 8 2 8 4 8

c. Pour tout n ≥ 0, la variable Xn est par définition mesurable par rapport à Fn . La


suite (Xn )n≥0 est donc adaptée.
Pour tout n ≥ 0, la variable Xn est bornée par 1, car Z est bornée par 1. Elle est donc
intégrable.
Enfin, pour tout n ≥ 0, on a, puisque Fn ⊂ Fn+1 ,

E[Xn+1 |Fn ] = E[E[Z|Fn+1 ]|Fn ] = E[Z|Fn ] = Xn .

La suite de variables aléatoires (Xn )n≥0 est donc une martingale.


De plus, l’expression de Xn que nous avons obtenue montre que pour tout t ∈ [0, 1[,
on a l’inégalité
1
|Xn (t) − Z(t)| ≤ n+1 .
2
La suite (Xn )n≥0 converge donc presque sûrement (à vrai dire simplement, c’est-à-dire
non pas seulement en presque tout point mais en tout point ; et même uniformément)
vers Z.

9. Soit (Yn )n≥1 une suite de variables aléatoires définies sur un espace de probabilités
(Ω, F , P). On pose X0 = 0 et, pour tout n ≥ 1, Xn = Y1 + . . . + Yn . Montrer que pour
tout n ≥ 1, on a
σ(X0 , . . . , Xn ) = σ(Y1 , . . . , Yn ).

9
Solution de l’exercice 9. Soient Z1 , . . . , Zn des variables aléatoires. Rappelons que par
définition, la tribu σ(Z1 , . . . , Zn ) est la plus petite tribu sur Ω qui rende Z1 , . . . , Zn me-
surables.
Soit n ≥ 1. D’une part, les égalités

X0 = 0, X1 = Y1 , X2 = Y1 + Y2 , . . . , Xn = Y1 + . . . + Yn

montrent que X0 , . . . , Xn sont mesurables par rapport à toute tribu qui rend Y1 , . . . , Yn
mesurables, donc par rapport à σ(Y1 , . . . , Yn ). Ainsi,

σ(X0 , . . . , Xn ) ⊂ σ(Y1 , . . . , Yn ).

D’autre part, les égalités

Y1 = X1 , Y2 = X2 − X1 , . . . , Yn = Xn − Xn−1

montrent que Y1 , . . . , Yn sont mesurables par rapport à toute tribu qui rend X0 , . . . , Xn
mesurables, donc par rapport à σ(X0 , . . . , Xn ). Ainsi,

σ(X0 , . . . , Xn ) ⊃ σ(Y1 , . . . , Yn )

et l’égalité cherchée est démontrée.

10. Soit (Ω, F , (Fn )n≥0 , P) un espace de probabilités filtré. Soit (Yn )n≥1 une suite de
variables aléatoires indépendantes et toutes de même loi, avec P(Y1 = 1) = P(Y1 = −1) =
1
2
. On suppose que F0 = {∅, Ω} et que pour tout n ≥ 1, on a l’égalité Fn = σ(Y1 , . . . , Yn ).
Soit a un entier positif. Soit x un entier tel que 0 ≤ x ≤ a. On pose X0 = x et, pour
tout n ≥ 1, Xn = x + Y1 + . . . + Yn .
a. Montrer que (Xn )n≥0 est une martingale.
b. Montrer que T = inf{n ≥ 0 : Xn = 0 ou Xn = a} est un temps d’arrêt.
c. Montrer que P(T = +∞) = 0.
d. En déduire que la suite de variables aléatoires (Xn∧T )n≥0 converge presque sûrement
vers XT lorsque n tend vers +∞.
e. Montrer que la convergence Xn∧T −→ XT a lieu dans L1 .
n→∞
f. Calculer E[XT ] et en déduire la loi de XT .
g. Deux joueurs ont chacun un tas de cailloux, contenant respectivement r et s cailloux.
À chaque tour du jeu, on tire à pile ou face. Si c’est pile qui sort, le premier joueur donne
un caillou au deuxième joueur. Si c’est face qui sort, le deuxième joueur donne un caillou
au premier joueur. Le jeu s’arrête quand un joueur n’a plus de cailloux. Alors le joueur
qui n’a plus de cailloux a gagné.
Quelle est la probabilité que le joueur qui a un tas de r cailloux devant lui gagne à ce
jeu ?

10
Solution de l’exercice 10. a. La variable aléatoire X0 , qui est constante, est mesurable
par rapport à la tribu grossière F0 = {∅, Ω}. Pour tout n ≥ 1, l’égalité Xn = x + Y0 +
. . . + Yn entraîne que Xn est mesurable par rapport à la tribu σ(Y1 , . . . , Yn ) = Fn . La
suite de variables aléatoires (Xn )n≥0 est donc adaptée à la filtration (Fn )n≥0 .
Pour tout n ≥ 0, on a

|Xn | = |x + Y1 + . . . + Yn | ≤ x + n,

donc la variable aléatoire Xn est bornée, donc intégrable.


Enfin, pour tout n ≥ 0, on a

E[Xn+1 |Fn ] = E[Xn + Yn+1 |Fn ] = E[Xn |Fn ] + E[Yn+1 |Fn ].

Or d’une part Xn est Fn -mesurable, donc E[Xn |Fn ] = Xn . D’autre part, Yn+1 est indé-
pendante de Fn , donc E[Yn+1 |Fn ] = E[Yn+1 ] = 0. Ainsi,

E[Xn+1 |Fn ] = Xn ,

ce qui achève de démontrer que la suite de variables aléatoires (Xn )n≥0 est une martingale
par rapport à la filtration (Fn )n≥0 .
b. Par définition d’un temps d’arrêt, il faut montrer que pour tout n ≥ 0, l’événement
{T = n} appartient à Fn .
Commençons par le cas où n = 0. Si x = 0 ou x = a, alors {T = 0} = Ω. Sinon,
{T = 0} = ∅. Dans les deux cas, {T = 0} ∈ F0 .
Soit maintenant n un entier supérieur ou égal à 1. On a, par définition de T ,

{T = n} = {X0 ∈
/ {0, a}} ∩ . . . ∩ {Xn−1 ∈
/ {0, a}} ∩ {Xn ∈ {0, a}},

si bien que {T = n} est l’intersection de n + 1 événements qui appartiennent à Fn . Il


appartient donc à Fn .
Nous avons démontré que T est un temps d’arrêt.
c. En français, T est le premier temps auquel la suite (Xn )n≥0 prend l’une des deux
valeurs 0 ou a. L’événement {T = ∞} est l’événement sur lequel la suite (Xn )n≥0 ne prend
jamais la valeur 0 ni la valeur a.
Si x = 0 ou x = a, alors T = 0 presque sûrement et la propriété voulue est vraie. Nous
supposerons désormais 0 < x < a.
Nous allons commencer par observer que si Xn n’appartient pas à {1, . . . , a − 1}, alors
T ≤ n, donc en particulier T < ∞. Plus précisément, soit ω ∈ Ω et n ≥ 0 tel que
Xn ∈/ {1, . . . , a − 1}. La suite
X0 (ω), . . . , Xn (ω)
est une suite d’entiers relatifs dont le premier est compris entre 1 et a − 1, dont chacun
diffère du précédent par 1 ou −1, et dont le dernier n’est pas compris entre 1 et a − 1.
Alors (et une preuve rigoureuse de ceci peut se faire par récurrence sur n) il existe un
entier k ≤ n tel que Xk (ω) soit égal à 0 ou a. En particulier, T (ω) ≤ n < ∞.

11
Nous avons donc établi l’inclusion
{∃n ≥ 0, Xn ∈
/ {1, . . . , a − 1}} ⊂ {T < +∞}.
Ceci peut se dire : si la marche (Xn )n≥0 sort de l’intervalle {1, . . . , a − 1}, alors elle prend
au moins une fois une des deux valeurs 0 et a, et T est fini.
Notons S = {∃n ≥ 0, Xn ∈ / {1, . . . , a − 1}}. Pour montrer que P(T < ∞) = 1, il suffit
donc de montrer que P(S) = 1.
Pour cela, observons et démontrons que si dans la suite Y1 , Y2 , . . . il y a une suite
consécutive de a termes égaux à 1, alors la suite (Xn )n≥0 sort de l’intervalle {1, . . . , a − 1}.
Plus précisément, soit ω ∈ Ω tel qu’il existe n ≥ 1, tel que Yn (ω) = . . . = Yn+a−1 (ω) =
1. Si Xn−1 (ω) ∈/ {1, . . . , a − 1}, alors ω ∈ S. Sinon, Xn−1 (ω) > 0 donc Xn+a−1 (ω) ≥
1 + a > a et ω ∈ S. Remarquons qu’il aurait suffi d’avoir a − 1 termes consécutifs égaux
à 1 dans la suite (Yn )n≥1 .
Nous avons donc démontré
{∃n ≥ 1 : Yn = . . . = Yn+a−1 = 1} ⊂ {∃n ≥ 0, Xn ∈
/ {1, . . . , a − 1}} ⊂ {T < ∞}.
Notons, pour tout n ≥ 0, Cn = {Yn+1 = . . . = Yn+a = 1}. Nos inclusions se réécrivent
[
Cn ⊂ S ⊂ {T < ∞}.
n≥0

Les événements Cn ont une probabilité facile à calculer, on a P(Cn ) = 21a , et ce pour
tout n ≥ 0. Pour utiliser l’indépendance des variables aléatoires Y1 , . . . , Yn , nous allons
considérer les événements
C0 , Ca , C2a , C3a , . . .
qui sont indépendants. Nous écrivons alors
[
Cna ⊂ {T < ∞}.
n≥0
S 
Il suffit de démontrer, et nous allons démontrer de deux manières, que P n≥0 Cna = 1.
Tout d’abord, en utilisant les propriétés fondamentales de la mesure P et l’indépen-
dance des événements (Cna )n≥0 , nous avons
p
! !
[ [
P Cna = lim P Cna
p→∞
n≥0 n=0
p
!!
\
c
= lim 1−P Cna
p→∞
n=0
p
!
Y
c
= lim 1− P(Cna )
p→∞
n=0
 p+1 !
1
= lim 1− 1− a
p→∞ 2
= 1.

12
On peut aussi utiliser la deuxième assertion du lemme de Borel-Cantelli. En effet,
[
lim sup Cna ⊂ Cna .
n→∞
n≥0

Or les événements (Cna )n≥0 sont indépendants et


X X 1

P(Cna ) = 1 − a = ∞,
n≥0 n≥0
2

donc
P(lim sup Cna ) = 1.
n→∞

D’une manière ou de l’autre, nous avons établi que P(T < ∞) = 1.


d. Soit ω ∈ {T < ∞}. Notons N = T (ω). Alors pour n ≥ N , on a

(Xn∧T )(ω) = (Xmin(T (ω),n) )(ω) = Xmin(N,n) (ω) = XN (ω) = (XT (ω) )(ω) = XT (ω).

Ainsi, sur l’événement {T < ∞}, la suite (Xn∧T ) est stationnaire de limite XT . Notons
toutefois que le rang à partir duquel la suite est stationnaire dépend de ω, et qu’il n’a
aucune raison d’être borné. D’ailleurs, il ne l’est pas et pour tout entier N la probabilité
que T soit supérieur à N est strictement positive.
Quoi qu’il en soit, nous avons montré que sur l’événement {T < ∞}, la suite (Xn∧T )
converge vers XT . Puisque l’événement {T < ∞} est de probabilité 1, la convergence est
presque sûre.
e. La remarque faite au début de la réponse à la question c montre que jusqu’au
premier instant auquel elle prend l’une des deux valeurs 0 ou a, la suite Xn est comprise
entre 0 et a. Ainsi, on a l’inégalité

|Xn∧T | ≤ a.

La convergence presque sûre de la suite (Xn∧T )n≥0 vers XT est donc dominée par la
constante a. Elle a donc lieu dans L1 . En particulier,

E[Xn∧T ] −→ E[XT ].
n→∞

f. D’après le théorème d’arrêt, la suite (Xn∧T )n≥0 est une martingale. En particulier,
pour tout n ≥ 0, on a
E[Xn∧T ] = E[X0∧T ] = E[X0 ] = x.
La convergence que nous venons de démontrer entraîne donc

E[XT ] = x.

Or par définition de T et puisque T est fini presque sûrement, la variable aléatoire XT


appartient presque sûrement à {0, a}. Il existe donc un réel p ∈ [0, 1] tel que

P(XT = 0) = 1 − p et P(XT = a) = p.

13
La valeur de l’espérance de XT que nous venons de calculer nous donne la condition

0(1 − p) + ap = x

qui s’écrit p = xa . Ainsi, on a


a−x x
P(XT = 0) = et P(XT = a) = .
a a
g. Appelons A le joueur qui commence avec r cailloux et B celui qui commence avec s
cailloux. Le dictionnaire entre la situation décrite et le problème que nous venons d’étudier
est le suivant.
• a = r + s, x = r
• n est le nombre de cailloux qui ont été échangés depuis le début du jeu
• Xn est le nombre de cailloux dans le tas du joueur A
• Yn vaut 1 si B donne un caillou à A (face), −1 si A donne un caillou à B (pile)
• T est le premier temps auquel un des deux joueurs n’a plus de caillou : c’est donc
l’instant où le jeu s’arrête
• XT est la taille du tas de A au moment où le jeu s’arrête : c’est 0 si A a gagné, r + s
si B a gagné (on a décidé que le gagnant était le premier à n’avoir plus de cailloux)
Ainsi, la probabilité que A gagne est la probabilité que XT = 0, c’est-à-dire a−x
a
s
= r+s .

11. On considère le même espace filtré et les mêmes familles de variables aléatoires
(Yn )n≥1 et (Xn )n≥0 qu’à l’exercice précédent. On suppose ici x = 1.
On pose T = inf{n ≥ 0 : Xn = 0}.
a. Montrer que T est un temps d’arrêt et que P(T < +∞) = 1.
b. A-t-on E[XT ] = E[X0 ] ? Y a-t-il contradiction avec le théorème d’arrêt ?
Solution de l’exercice 11. a. On a {T = 0} = ∅ et, pour tout n ≥ 1,

{T = n} = {X0 > 0} ∩ . . . ∩ {Xn−1 > 0} ∩ {Xn = 0},

qui est un événement de Fn , si bien que T est un temps d’arrêt.


Pour tout entier a ≥ 2, notons Sa = inf{n ≥ 0 : Xn = 0 ou Xn = a}, le premier
temps auquel la suite (Xn )n≥0 prend la valeur 0 ou la valeur a. On a démontré à l’exercice
précédent que Sa était fini presque sûrement. Pour tout a ≥ 2, on a l’inclusion

{XSa = 0} ⊂ {T < ∞}.

Or pour tout a ≥ 2, on a montré que


1
P(XSa = 0) = 1 − .
a
Donc P(T < ∞) ≥ 1 − a1 pour tout a ≥ 2, donc P(T < ∞) = 1.
b. On a, par définition de T et puisque T est fini presque sûrement, XT = 0 presque
sûrement. En particulier, E[XT ] = 0 6= 1 = E[X0 ].

14
Il n’y a heureusement pas de contradiction avec le théorème d’arrêt, car le temps
d’arrêt T n’est pas borné. Il est fini presque sûrement, ce qui est strictement plus faible.
Le théorème d’arrêt nous dit que pour tout n ≥ 0, E[Xn∧T ] = 1. Pourtant, pourrait-on
penser, lorsque n est grand, n ∧ T a de fortes chances d’être égal à T et donc Xn∧T d’être
égal à XT = 0. C’est vrai, on peut écrire

lim P(Xn∧T = 0) = 1,
n→∞

c’est-à-dire que la suite (Xn∧T )n≥0 converge en probabilité vers 0. Cependant, la conver-
gence des espérances n’a pas lieu, car sur l’événement {Xn∧T > 0}, qui est l’événement
où jusqu’au temps n la marche n’a pas touché 0, Xn∧T a tendance à être grand.
La raison intuitive en est que pour éviter de toucher 0 jusqu’à un temps n grand, la
marche a dû s’éloigner beaucoup de 0, sans quoi ses fluctuations l’auraient, avec forte
probabilité, conduite à toucher 0. Pour le dire plus simplement : pour rester stricte-
ment positive longtemps, la marche doit s’éloigner beaucoup de 0. Ainsi, sur l’événement
{Xn∧T > 0} = {T > n}, Xn∧T = Xn est très grande.

12. Soit (Ω, F , (Fn )n≥0 , P) un espace de probabilités filtré. Soit X = (Xn )n≥0 une
martingale telle que X0 = 0. On suppose qu’il existe une constante C telle que pour tout
n ≥ 0 on ait E[Xn2 ] ≤ C. Autrement dit, on suppose la martingale X bornée dans L2 .
a. Montrer que pour tous n, m ≥ 1 entiers tels que avec 1 ≤ n < m, on a
m−1
X
2
E (Xk+1 − Xk )2 .
   
E (Xm − Xn ) =
k=n

b. Montrer que la série


+∞
X
E (Xk+1 − Xk )2
 
k=0

converge et en déduire que la suite (Xn )n≥0 est de Cauchy dans L2 , donc converge vers
une variable aléatoire Z.
c. Montrer que pour tout n ≥ 0, la suite (E[Xm |Fn ])m≥n converge dans L2 vers
E[Z|Fn ] lorsque m tend vers l’infini.
d. En déduire que pour tout n ≥ 0, on a Xn = E[Z|Fn ].
Solution de l’exercice 12. a. Soit n ≥ 1. Montrons le résultat par récurrence sur m ≥
n + 1. Pour m = n + 1, les deux membres de l’égalité sont les mêmes : E[(Xn+1 − Xn )2 ] =
E[(Xn+1 − Xn )2 ]. Supposons l’égalité établie pour un certain m ≥ n + 1. Alors

E[(Xm+1 − Xn )2 ] = E[(Xm+1 − Xm )2 + 2(Xm+1 − Xm )(Xm − Xn ) + (Xm − Xn )2 ]


= E[E[(Xm+1 − Xm )2 + 2(Xm+1 − Xm )(Xm − Xn ) + (Xm − Xn )2 |Fm ]].

Or
E[(Xm+1 − Xm )(Xm − Xn )|Fn ] = E[Xm+1 − Xm |Fn ](Xm − Xn ) = 0,

15
si bien qu’en utilisant l’hypothèse de récurrence, on trouve
m−1
X
2 2
E[(Xm+1 − Xn ) ] = E[(Xm+1 − Xm ) ] + E[(Xk+1 − Xk )2 ]
k=n
m
X
= E[(Xk+1 − Xk )2 ],
k=n

ce qu’on voulait démontrer.


b. Pour tout m ≥ 0, on a d’après ce qui précède
m−1
X
E[(Xk+1 − Xk )2 ] = E[Xm
2
] ≤ C.
k=0

Les sommes partielles de la série à termes positifs


+∞
X
E (Xk+1 − Xk )2
 
k=0

sont donc bornées, donc elle converge.


Montrons que la suite (Xn )n≥0 est de Cauchy dans L2 , c’est-à-dire que pour tout ε > 0
il existe un entier n ≥ 1 tel que pour tout entier m ≥ n on ait
p
E[(Xm − Xn )2 ] ≤ ε.

Choisissons donc ε > 0. Puisque la série +∞ 2


P
k=0 E [(Xk+1 − Xk ) ] converge, la suite de ses
sommes partielles est de Cauchy. Il existe donc un entier n ≥ 1 tel que pour tout entier
m > n on ait
m−1
X 
E (Xk+1 − Xk )2 ≤ ε2 .

k=n
Pm−1
Or d’après le résultat de la question précédente, la tranche k=n E [(Xk+1 − Xk )2 ] vaut
E[(Xm − Xn )2 ]. On a donc, pour tout m ≥ n,

E[(Xm − Xn )2 ] ≤ ε2 ,

ce qui est exactement ce qu’on voulait.


Puisque L2 (Ω, F , P) est complet, la suite (Xn )n≥0 , qui y est de Cauchy, est convergente
vers une certaine variable aléatoire Z.
c. On a, pour tout m ≥ n, en utilisant l’inégalité de Jensen conditionnelle,

E (E[Xm |Fn ] − E[Z|Fn ])2 = E (E[Xm − Z|Fn ])2


   

≤ E E (Xm − Z)2 |Fn


  

= E[(Xm − Z)2 ] −→ 0.
n→∞

16
Ainsi, la suite (E[Xm |Fn ])m≥n converge dans L2 vers E[Z|Fn ]. Comme par ailleurs
cette suite est constante égale à Xn , on a, pour tout n ≥ 0,

Xn = E[Z|Fn ].

13. Un sac contient trente pierres blanches et trente pierres noires. On vous propose
l’épreuve suivante. Vous allez sortir une à une les pierres du sac, sans les y remettre, et
vous pourrez les voir lorsqu’elles seront sorties. À un moment de votre choix, et avant
de tirer l’une des pierres, vous devrez annoncer : “La pierre que je vais tirer est blanche”.
Vous aurez réussi l’épreuve si vous avez raison.
Comment devez-vous vous y prendre pour rendre maximale votre probabilité de ga-
gner ? Que vaut cette probabilité ?

17

Vous aimerez peut-être aussi