MM010 TD10C
MM010 TD10C
1. Soit X une variable aléatoire de loi N (0, 1). Calculer E[X 2 |X] et E[X|X 2 ].
Solution de l’exercice 1. La variable aléatoire X 2 est une fonction de X, donc elle est
égale à son espérance conditionnelle sachant X :
E[X 2 |X] = X 2 .
Soit maintenant g une fonction mesurable bornée. On a
Z ∞
1 x2
2
E[Xg(X )] = √ xg(x2 )e− 2 dx = 0,
2π −∞
car la fonction que l’on intègre est impaire. La variable aléatoire nulle est une fonction
de X 2 et on a donc, pour toute fonction mesurable bornée g, l’égalité E[Xg(X 2 )] =
E[0g(X 2 )]. On en déduit que
E[X|X 2 ] = 0.
1
La réciproque n’est en revanche pas vraie. Prenons Z de loi gaussienne centrée réduite,
X = Z 2 et Y = Z. On a Cov(X, Y ) = E[Z 3 ] − E[Z 2 ]E[Z] = 0, mais E[X|Y ] = X 6= E[X].
Finalement, l’égalité E[X|Y ] = E[X] entraîne Cov(X, Y ) = 0, mais la réciproque est
fausse.
2
donc c = 3.
b. Soit g : R2 → R une fonction mesurable bornée. Calculons E[Xg(Y, Z)]. On a
Z Z y
−z −2x
E[Xg(Y, Z)] = 3 g(y, z)e xe dx dydz
0≤y≤z 0
−2y
−z 1 − e − 2ye−2y
Z
=3 g(y, z)e dydz.
0≤y≤z 4
Par ailleurs, on a
Z Z y
−z −2x
E[g(Y, Z)] = 3 g(y, z)e e dx dydz
0≤y≤z 0
1 − e−2y
Z
=3 g(y, z)e−z dydz,
0≤y≤z 2
3
puisque E[X|Y, Z] est une fonction de Y .
Enfin, on choisit une fonction g : R → R mesurable bornée et on calcule E[Y g(X)] :
Z
E[Y g(X)] = 3 yg(x)e−z−2x dxdydz
Z0≤x≤y≤z
=3 yg(x)e−y−2x dxdy
0≤x≤y
Z Z +∞
−2x −y
=3 g(x)e ye dy dx
0≤x x
Z Z +∞
−2x −y
=3 g(x)e ye dy dx
0≤x x
Z
=3 (x + 1)g(x)e−3x dx
0≤x
= E[(X + 1)g(X)],
E[Y |X] = X + 1.
4
Soit g : R → R une fonction mesurable bornée. On a
+∞
X
E[Y g(X)] = lg(k)P(X = k, Y = l)
k,l=0
+∞
X kl
= (1 − p) lg(k)pk e−k
k,l=0
l!
+∞ +∞
X X kl
= (1 − p) g(k)pk e−k l
k=0 l=0
l!
+∞ +∞
X X k l−1
= (1 − p) g(k)pk e−k k
k=0 l=1
(l − 1)!
+∞
X
= (1 − p) kg(k)pk
k=0
= E[Xg(X)].
Ainsi, E[Y |X] = X.
(où l’on prendra garde au fait que M est une constante et N une variable aléatoire)
entraîne puisque N est intégrable l’inégalité
" N #
X
E Xn ≤ M E[N ] < ∞
n=1
5
Pour tout l ≥ 0, on a
l k
! N
1N =k = 1N ≤l
X X X
Xn |Xn | ≤ M N.
k=1 n=1 n=1
6
Solution de l’exercice 7. Calculons E[(X − Y )2 ]. Puisque X et Y ont des moments
d’ordre 2, les variables aléatoires X 2 , XY et Y 2 sont intégrables et on a
E[XY ] = E [E[X|Y ]Y ] .
E[XY ] = E[Y 2 ].
En échangeant X et Y dans les cinq lignes qui précèdent, on obtient une démonstration
de l’égalité
E[XY ] = E[X 2 ].
De ces calculs, nous déduisons que
Ainsi, la variable aléatoire (X − Y )2 est positive et d’espérance nulle. Elle est donc nulle
presque sûrement, si bien que X = Y presque sûrement.
8. On considère sur l’espace de probabilités ([0, 1[, B[0,1[ , Leb) et pour tout n ≥ 0 la
tribu Fn définie par
k k+1
Fn = σ , n
: k ∈ {0, . . . , 2 − 1} .
2n 2n
On considère la variable aléatoire Z : [0, 1[→ R définie pour tout t ∈ [0, 1[ par Z(t) = t.
a. Montrer que (Fn )n≥0 est une filtration.
b. Calculer, pour tout n ≥ 0, l’espérance conditionnelle Xn = E[Z|Fn ].
c. Montrer que la suite de variables aléatoires (Xn )n≥0 est une martingale qui converge
presque sûrement vers une limite que l’on déterminera.
Solution de l’exercice 8. a. Pour tout n ≥ 0, Fn est par définition une sous-tribu
de B[0,1[ . C’est,
k k+1toujours
par définition, la plus petite tribu qui contienne chacun des
intervalles 2n , 2n , k ∈ {0, . . . , 2n − 1}.
Bien que ce ne soit pas explicitement demandé par l’énoncé, il est utile de voir ce que
sont les éléments de Fn : ce sont tous les ensembles que l’on peut former en faisant la
réunion de certains de ces intervalles. Autrement dit, il y a autant d’éléments dans Fn
n
que de parties de {0, . . . , 2n − 1}, c’est-à-dire 22 . Pour toute partie K ⊂ {0, . . . , 2n−1 },
l’ensemble
[ k k + 1
AK = n
, n
k∈K
2 2
7
est un élement de Fn et tout élément de Fn est de cette forme.
Pour montrer que la suite de sous-tribus (Fn )n≥0 est une filtration, il nous fautmontrer
que Fn ⊂ Fn+1 . Pour cela, il suffit de montrer que chacun des intervalles 2kn , k+1 2n
appartient à Fn+1 . En effet, par définition de Fn , toute tribu qui contient chacun de ces
intervalles contient la tribu Fn .
Or l’égalité
k k+1 2k 2k + 1 2k + 1 2k + 2
, = n+1 , n+1 ∪ , n+1 ,
2n 2n 2 2 2n+1 2
vraie pour tout k ∈ {0, . . . , 2n − 1}, montre que l’intervalle 2kn , k+1 appartient à Fn+1 .
2n
b. Ici encore, bien que ce ne soit pas demandé, il est utile de comprendre ce que sont
les fonctions mesurables Y : ([0, 1[, Fn ) → (R, BR ). En effet, nous savons que l’espérance
conditionnelle E[X|Fn ] est une variable aléatoire de cette forme.
Nous allons montrer qu’une application Y : [0, 1[→ R est mesurable par rapport
à Fn et BR si et seulement si elle est constante sur chacun des intervalles 2kn , k+1
2n ,
k ∈ {0, . . . , 2n − 1}.
Supposons tout d’abord Y mesurable par rapport à Fn et BR . Notons a = Y (0).
La partie Y −1 ({a}) = {Y = a} de [0, 1[ contient 0 et appartient à Fn . Elle contient
donc l’intervalle 0, 21n . Ainsi, Y est constante sur cet intervalle. Le même raisonnement
k n
effectué au point k 2nk+1 tout k ∈ {1, . . . , 2 − 1} montre que Y est constante sur chacun
pour
des intervalles 2n , 2n .
Réciproquement, si Y est constante sur chaque intervalle 2kn , k+1
2n
, on peut écrire Y
sous la forme n −1
2X
k
Y = Y n
1[ 2kn , k+1
2n [
k=0
2
qui montre que Y est une combinaison linéaire d’indicatrices d’événements de Fn , donc
mesurable par rapport à Fn .
Venons-en au calcul de l’espérance conditionnelle de Z sachant Fn . Puisque Z est
bornée, elle est intégrable et cette espérance conditionnelle existe. C’est, par définition,
une variable aléatoire Fn -mesurable Xn telle que pour tout événement A ∈ Fn on ait
E[Z 1A ] = E[Xn 1A ].
Vu la description que nous avons donnée des éléments de Fn , il suffit d’avoir cette égalité
k k+1
lorsque A est un intervalle 2n , 2n , le cas général s’en déduisant par linéarité. Soit donc
k ∈ {0, . . . , 2n − 1}. La variable Xn doit satisfiare l’égalité
Z k+1 Z k+1
2n 2n
Z(t) dt = Xn (t) dt
k k
2n 2n
8
si bien que
k 2k + 1
Xn = .
2n 2n+1
Puisque ce calcul est valable pour tout k ∈ {0, . . . , 2n − 1}, on a
n −1
2X
k + 21
Xn = 1 k k+1 .
k=0
2n [ 2n , 2n [
1 1 3 1 5 3 7
0 1
8 4 8 2 8 4 8
9. Soit (Yn )n≥1 une suite de variables aléatoires définies sur un espace de probabilités
(Ω, F , P). On pose X0 = 0 et, pour tout n ≥ 1, Xn = Y1 + . . . + Yn . Montrer que pour
tout n ≥ 1, on a
σ(X0 , . . . , Xn ) = σ(Y1 , . . . , Yn ).
9
Solution de l’exercice 9. Soient Z1 , . . . , Zn des variables aléatoires. Rappelons que par
définition, la tribu σ(Z1 , . . . , Zn ) est la plus petite tribu sur Ω qui rende Z1 , . . . , Zn me-
surables.
Soit n ≥ 1. D’une part, les égalités
X0 = 0, X1 = Y1 , X2 = Y1 + Y2 , . . . , Xn = Y1 + . . . + Yn
montrent que X0 , . . . , Xn sont mesurables par rapport à toute tribu qui rend Y1 , . . . , Yn
mesurables, donc par rapport à σ(Y1 , . . . , Yn ). Ainsi,
σ(X0 , . . . , Xn ) ⊂ σ(Y1 , . . . , Yn ).
Y1 = X1 , Y2 = X2 − X1 , . . . , Yn = Xn − Xn−1
montrent que Y1 , . . . , Yn sont mesurables par rapport à toute tribu qui rend X0 , . . . , Xn
mesurables, donc par rapport à σ(X0 , . . . , Xn ). Ainsi,
σ(X0 , . . . , Xn ) ⊃ σ(Y1 , . . . , Yn )
10. Soit (Ω, F , (Fn )n≥0 , P) un espace de probabilités filtré. Soit (Yn )n≥1 une suite de
variables aléatoires indépendantes et toutes de même loi, avec P(Y1 = 1) = P(Y1 = −1) =
1
2
. On suppose que F0 = {∅, Ω} et que pour tout n ≥ 1, on a l’égalité Fn = σ(Y1 , . . . , Yn ).
Soit a un entier positif. Soit x un entier tel que 0 ≤ x ≤ a. On pose X0 = x et, pour
tout n ≥ 1, Xn = x + Y1 + . . . + Yn .
a. Montrer que (Xn )n≥0 est une martingale.
b. Montrer que T = inf{n ≥ 0 : Xn = 0 ou Xn = a} est un temps d’arrêt.
c. Montrer que P(T = +∞) = 0.
d. En déduire que la suite de variables aléatoires (Xn∧T )n≥0 converge presque sûrement
vers XT lorsque n tend vers +∞.
e. Montrer que la convergence Xn∧T −→ XT a lieu dans L1 .
n→∞
f. Calculer E[XT ] et en déduire la loi de XT .
g. Deux joueurs ont chacun un tas de cailloux, contenant respectivement r et s cailloux.
À chaque tour du jeu, on tire à pile ou face. Si c’est pile qui sort, le premier joueur donne
un caillou au deuxième joueur. Si c’est face qui sort, le deuxième joueur donne un caillou
au premier joueur. Le jeu s’arrête quand un joueur n’a plus de cailloux. Alors le joueur
qui n’a plus de cailloux a gagné.
Quelle est la probabilité que le joueur qui a un tas de r cailloux devant lui gagne à ce
jeu ?
10
Solution de l’exercice 10. a. La variable aléatoire X0 , qui est constante, est mesurable
par rapport à la tribu grossière F0 = {∅, Ω}. Pour tout n ≥ 1, l’égalité Xn = x + Y0 +
. . . + Yn entraîne que Xn est mesurable par rapport à la tribu σ(Y1 , . . . , Yn ) = Fn . La
suite de variables aléatoires (Xn )n≥0 est donc adaptée à la filtration (Fn )n≥0 .
Pour tout n ≥ 0, on a
|Xn | = |x + Y1 + . . . + Yn | ≤ x + n,
Or d’une part Xn est Fn -mesurable, donc E[Xn |Fn ] = Xn . D’autre part, Yn+1 est indé-
pendante de Fn , donc E[Yn+1 |Fn ] = E[Yn+1 ] = 0. Ainsi,
E[Xn+1 |Fn ] = Xn ,
ce qui achève de démontrer que la suite de variables aléatoires (Xn )n≥0 est une martingale
par rapport à la filtration (Fn )n≥0 .
b. Par définition d’un temps d’arrêt, il faut montrer que pour tout n ≥ 0, l’événement
{T = n} appartient à Fn .
Commençons par le cas où n = 0. Si x = 0 ou x = a, alors {T = 0} = Ω. Sinon,
{T = 0} = ∅. Dans les deux cas, {T = 0} ∈ F0 .
Soit maintenant n un entier supérieur ou égal à 1. On a, par définition de T ,
{T = n} = {X0 ∈
/ {0, a}} ∩ . . . ∩ {Xn−1 ∈
/ {0, a}} ∩ {Xn ∈ {0, a}},
11
Nous avons donc établi l’inclusion
{∃n ≥ 0, Xn ∈
/ {1, . . . , a − 1}} ⊂ {T < +∞}.
Ceci peut se dire : si la marche (Xn )n≥0 sort de l’intervalle {1, . . . , a − 1}, alors elle prend
au moins une fois une des deux valeurs 0 et a, et T est fini.
Notons S = {∃n ≥ 0, Xn ∈ / {1, . . . , a − 1}}. Pour montrer que P(T < ∞) = 1, il suffit
donc de montrer que P(S) = 1.
Pour cela, observons et démontrons que si dans la suite Y1 , Y2 , . . . il y a une suite
consécutive de a termes égaux à 1, alors la suite (Xn )n≥0 sort de l’intervalle {1, . . . , a − 1}.
Plus précisément, soit ω ∈ Ω tel qu’il existe n ≥ 1, tel que Yn (ω) = . . . = Yn+a−1 (ω) =
1. Si Xn−1 (ω) ∈/ {1, . . . , a − 1}, alors ω ∈ S. Sinon, Xn−1 (ω) > 0 donc Xn+a−1 (ω) ≥
1 + a > a et ω ∈ S. Remarquons qu’il aurait suffi d’avoir a − 1 termes consécutifs égaux
à 1 dans la suite (Yn )n≥1 .
Nous avons donc démontré
{∃n ≥ 1 : Yn = . . . = Yn+a−1 = 1} ⊂ {∃n ≥ 0, Xn ∈
/ {1, . . . , a − 1}} ⊂ {T < ∞}.
Notons, pour tout n ≥ 0, Cn = {Yn+1 = . . . = Yn+a = 1}. Nos inclusions se réécrivent
[
Cn ⊂ S ⊂ {T < ∞}.
n≥0
Les événements Cn ont une probabilité facile à calculer, on a P(Cn ) = 21a , et ce pour
tout n ≥ 0. Pour utiliser l’indépendance des variables aléatoires Y1 , . . . , Yn , nous allons
considérer les événements
C0 , Ca , C2a , C3a , . . .
qui sont indépendants. Nous écrivons alors
[
Cna ⊂ {T < ∞}.
n≥0
S
Il suffit de démontrer, et nous allons démontrer de deux manières, que P n≥0 Cna = 1.
Tout d’abord, en utilisant les propriétés fondamentales de la mesure P et l’indépen-
dance des événements (Cna )n≥0 , nous avons
p
! !
[ [
P Cna = lim P Cna
p→∞
n≥0 n=0
p
!!
\
c
= lim 1−P Cna
p→∞
n=0
p
!
Y
c
= lim 1− P(Cna )
p→∞
n=0
p+1 !
1
= lim 1− 1− a
p→∞ 2
= 1.
12
On peut aussi utiliser la deuxième assertion du lemme de Borel-Cantelli. En effet,
[
lim sup Cna ⊂ Cna .
n→∞
n≥0
donc
P(lim sup Cna ) = 1.
n→∞
(Xn∧T )(ω) = (Xmin(T (ω),n) )(ω) = Xmin(N,n) (ω) = XN (ω) = (XT (ω) )(ω) = XT (ω).
Ainsi, sur l’événement {T < ∞}, la suite (Xn∧T ) est stationnaire de limite XT . Notons
toutefois que le rang à partir duquel la suite est stationnaire dépend de ω, et qu’il n’a
aucune raison d’être borné. D’ailleurs, il ne l’est pas et pour tout entier N la probabilité
que T soit supérieur à N est strictement positive.
Quoi qu’il en soit, nous avons montré que sur l’événement {T < ∞}, la suite (Xn∧T )
converge vers XT . Puisque l’événement {T < ∞} est de probabilité 1, la convergence est
presque sûre.
e. La remarque faite au début de la réponse à la question c montre que jusqu’au
premier instant auquel elle prend l’une des deux valeurs 0 ou a, la suite Xn est comprise
entre 0 et a. Ainsi, on a l’inégalité
|Xn∧T | ≤ a.
La convergence presque sûre de la suite (Xn∧T )n≥0 vers XT est donc dominée par la
constante a. Elle a donc lieu dans L1 . En particulier,
E[Xn∧T ] −→ E[XT ].
n→∞
f. D’après le théorème d’arrêt, la suite (Xn∧T )n≥0 est une martingale. En particulier,
pour tout n ≥ 0, on a
E[Xn∧T ] = E[X0∧T ] = E[X0 ] = x.
La convergence que nous venons de démontrer entraîne donc
E[XT ] = x.
P(XT = 0) = 1 − p et P(XT = a) = p.
13
La valeur de l’espérance de XT que nous venons de calculer nous donne la condition
0(1 − p) + ap = x
11. On considère le même espace filtré et les mêmes familles de variables aléatoires
(Yn )n≥1 et (Xn )n≥0 qu’à l’exercice précédent. On suppose ici x = 1.
On pose T = inf{n ≥ 0 : Xn = 0}.
a. Montrer que T est un temps d’arrêt et que P(T < +∞) = 1.
b. A-t-on E[XT ] = E[X0 ] ? Y a-t-il contradiction avec le théorème d’arrêt ?
Solution de l’exercice 11. a. On a {T = 0} = ∅ et, pour tout n ≥ 1,
14
Il n’y a heureusement pas de contradiction avec le théorème d’arrêt, car le temps
d’arrêt T n’est pas borné. Il est fini presque sûrement, ce qui est strictement plus faible.
Le théorème d’arrêt nous dit que pour tout n ≥ 0, E[Xn∧T ] = 1. Pourtant, pourrait-on
penser, lorsque n est grand, n ∧ T a de fortes chances d’être égal à T et donc Xn∧T d’être
égal à XT = 0. C’est vrai, on peut écrire
lim P(Xn∧T = 0) = 1,
n→∞
c’est-à-dire que la suite (Xn∧T )n≥0 converge en probabilité vers 0. Cependant, la conver-
gence des espérances n’a pas lieu, car sur l’événement {Xn∧T > 0}, qui est l’événement
où jusqu’au temps n la marche n’a pas touché 0, Xn∧T a tendance à être grand.
La raison intuitive en est que pour éviter de toucher 0 jusqu’à un temps n grand, la
marche a dû s’éloigner beaucoup de 0, sans quoi ses fluctuations l’auraient, avec forte
probabilité, conduite à toucher 0. Pour le dire plus simplement : pour rester stricte-
ment positive longtemps, la marche doit s’éloigner beaucoup de 0. Ainsi, sur l’événement
{Xn∧T > 0} = {T > n}, Xn∧T = Xn est très grande.
12. Soit (Ω, F , (Fn )n≥0 , P) un espace de probabilités filtré. Soit X = (Xn )n≥0 une
martingale telle que X0 = 0. On suppose qu’il existe une constante C telle que pour tout
n ≥ 0 on ait E[Xn2 ] ≤ C. Autrement dit, on suppose la martingale X bornée dans L2 .
a. Montrer que pour tous n, m ≥ 1 entiers tels que avec 1 ≤ n < m, on a
m−1
X
2
E (Xk+1 − Xk )2 .
E (Xm − Xn ) =
k=n
converge et en déduire que la suite (Xn )n≥0 est de Cauchy dans L2 , donc converge vers
une variable aléatoire Z.
c. Montrer que pour tout n ≥ 0, la suite (E[Xm |Fn ])m≥n converge dans L2 vers
E[Z|Fn ] lorsque m tend vers l’infini.
d. En déduire que pour tout n ≥ 0, on a Xn = E[Z|Fn ].
Solution de l’exercice 12. a. Soit n ≥ 1. Montrons le résultat par récurrence sur m ≥
n + 1. Pour m = n + 1, les deux membres de l’égalité sont les mêmes : E[(Xn+1 − Xn )2 ] =
E[(Xn+1 − Xn )2 ]. Supposons l’égalité établie pour un certain m ≥ n + 1. Alors
Or
E[(Xm+1 − Xm )(Xm − Xn )|Fn ] = E[Xm+1 − Xm |Fn ](Xm − Xn ) = 0,
15
si bien qu’en utilisant l’hypothèse de récurrence, on trouve
m−1
X
2 2
E[(Xm+1 − Xn ) ] = E[(Xm+1 − Xm ) ] + E[(Xk+1 − Xk )2 ]
k=n
m
X
= E[(Xk+1 − Xk )2 ],
k=n
E[(Xm − Xn )2 ] ≤ ε2 ,
= E[(Xm − Z)2 ] −→ 0.
n→∞
16
Ainsi, la suite (E[Xm |Fn ])m≥n converge dans L2 vers E[Z|Fn ]. Comme par ailleurs
cette suite est constante égale à Xn , on a, pour tout n ≥ 0,
Xn = E[Z|Fn ].
13. Un sac contient trente pierres blanches et trente pierres noires. On vous propose
l’épreuve suivante. Vous allez sortir une à une les pierres du sac, sans les y remettre, et
vous pourrez les voir lorsqu’elles seront sorties. À un moment de votre choix, et avant
de tirer l’une des pierres, vous devrez annoncer : “La pierre que je vais tirer est blanche”.
Vous aurez réussi l’épreuve si vous avez raison.
Comment devez-vous vous y prendre pour rendre maximale votre probabilité de ga-
gner ? Que vaut cette probabilité ?
17