Rappels sur l’espace L2.
[M. Gubinelli - Controle des chaines de Markov - M1 MMD 2009/2010 - 20090930 - v.3]
I Espérance Conditionnelle
1 Rappels sur l’espace L2.
On rappelle que L2(Ω, F , P) (que l’on dénote plus brièvement L2(F )) est la completion par la
norme E[| · |2] de l’ensemble des fonction étagées. Les elements de L2(F ) sont les classes d’equi-
valence des fonctions mesurables selon la relation X ∼ Y ssi P(X = Y ) = 1.
Théorème 1. L2(Ω, F , P) est un espace vectoriel complet.
Démonstration. Verifier que il est bien un espace vectoriel. On va montrer que il est complet
pour la topologie induite par la norme. Soit Xn ∈ L2(F ) une suite de Cauchy: supm,k>n Xm −
Xk 2 → 0 pour k → ∞. On veut montrer qu’il existe X ∈ L2(F ) (unique p.s.) tel que lim Xn −
X 2 = 0. Soit kn une suite croissante tel que kn ∞ et Xs − Xm 2 2 −n pour tout s, m kn.
Alors
E |Xkn+1 − Xkn | Xkn+1 − Xkn 2 < ∞
n1 n1
et donc pour presque tout ω ∈ Ω la série S(ω) = n1 (Xkn+1(ω) − Xkn(ω)) est absolument con-
vergente et donc limn Xkn(ω) existe p.s.. Soit X(ω) = limsupn Xkn(ω), on a que X∈ ˆ F et que
Xkn → X p.s. Maintenant on observe que si l n E[|Xr − Xkl |2] 2 −2n pour tout r kn, donc
une application du Lemme de Fatou donne
E[|Xr − X |2] = E[ lim |Xr − Xkl |2] lim E[|Xr − Xkl |2] 2 −2n
l→∞ l→∞
pour tout r kn, qui montre que X ∈ L (F ) et que Xn → X dans L2(F ).
2
Corollaire 2. Si B ⊆ F est une sous-tribu de F alors L2(B) est un sous-espace vectoriel fermé
de L2(F ) et pour tout X ∈ L2(F ) il existe une v.a. Y ∈ L2(B) (unique p.s.) qui satisfait une des
deux propriétés équivalentes suivantes:
a) E[|X − Y |2] = infZ ∈L2(B) E[|X − Z |2] ;
b) X − Y ⊥L2(B).
On appelle Y la projection orthogonale de X sur L2(B).
Démonstration. Par le théorème 1 l’ensemble L2(B) est complet par la norme L2 et donc
fermé dans L2(F ). Soit ∆ = infZ ∈L2(B) E[|X − Z |2] et Yn une suite minimisante: E[|X − Yn |2] →
∆ quand n → ∞. On a donc
E[|X − Yn |2] + E[|X − Ym |2] = 2E[|X − (Yn + Ym)/2|2] + E[|Yn − Ym |2]/2
(on utilise E[|A + B |2] + E[|A − B |2] = 2E[A2] + 2E[B 2]). Mais (Yn + Ym)/2 ∈ L2(B) ce qui donne
que
E[|Yn − Ym |2]/2 E[|X − Yn |2] + E[|X − Ym |2] − 2∆ → 0
pour n, m → ∞. Donc la suite Yn est Cauchy. Soit Y = lim√n Yn ∈ L2(B) (dans L2). On a que
X − Y 2 X − Yn 2 + Yn − Y 2 et donc que X − Y 2 = ∆ car Yn − Y 2 → 0.
Pour tout t ∈ R et Z ∈ L2(B) on a que Y + t Z ∈ L2(B) et
0 E[|X − Y − t Z |2] − E[|X − Y |2] = − 2 tE[(X − Y )Z] + t2E[Z 2].
2 Section 2
Le polynome P (t) = at2 + b t satisfait P (t) 0 pour tout t 0 donc on doit avoir b = 0 ou dans
notre cas E[(X − Y )Z] = 0 pour tout Z. L’implication réciproque est facile à établir. Pour mon-
trer l’unicité presque sûre de Y on suppose que Y est un autre projection orthogonale. On a
que E[(Y − Y )Z] = 0 pour tout Z ∈ L2(G) et donc aussi pour Z = Y − Y mais alors E[(Y −
Y )2] = 0 ⇒ Y − Y = 0 p.s.
2 L’espérance conditionnelle
Soit (Ω, F , P) un espace de probabilité, et soit B ⊆ F une sous-tribu de F . Soit X: Ω → R une
variable aléatoire telle que E(|X |) < + ∞ (i.e. X ∈ L1(Ω, F , P)) .
Définition 3. L’espérance conditionnelle de X sachant B est une variable aléatoire Y ∈
ˆ B telle
que
E[1AX] = E[1AY ] ∀A ∈ B (1)
L’assertion (1) est en fait équivalente à
E[Z X] = E[Z Y ] ∀Z∈
ˆ B bornée (2)
L’existence d’une variable aléatoire Y qui a ces propriétés n’est pas triviale, on va y revenir
plus avant. Par ailleurs, cette variable aléatoire est unique à l’égalité presque-sûre près (voir la
preuve du 2. de la proposition suivante).
On utilisera les notations Y = E(X |B), ainsi que E(X |Z) = E(X |σ(Z)). La probabilité condi-
tionnelle P( · |B) sachant B (ou par rapport à B) est définie par P(A|B) = E[1A |B]. On remarque
que P(A|B) est une variable aléatoire.
Exercice 1. Soient G ⊆ F, X ∈ L2(F ), Z ∈ L2(G) et Y = E[X |G], montrer que
E[|X − Z |2] = E[|X − Y |2] + E[|Y − Z |2]
et en déduire que
E[|X − Y |2] = inf E[|X − Z |2].
Z ∈L2(G)
L’exercice précèdent montre que l’espérance conditionnelle dans L2(F ) est le meilleure estima-
teur G-mesurable de X selon le risque quadratique:
E[|X − E[X |B]|2] E[|X − Z |2] pour tout Z ∈ L2(B).
En effet cette interprétation géométrique est à la base d’une stratégie pour montrer l’existence
de l’espérance conditionnelle.
Soit X ∈ L2(F ) et B une sous-tribu de F . Alors la projection orthogonale Y de X sur L2(B)
satisfait E[XZ] = E[YZ] pour tout Z ∈ L2(B) et donc pour tout Z B-mesurable et bornée. Donc
Y = E[X |B] ce qui montre l’existence de l’espérance conditionnelle pour X ∈ L2(F ).
Théorème 4. Pour tout X ∈ L1(F ) il existe l’espérance conditionnelle E[X |B] ∈ L1(B).
Démonstration. Pour étendre l’existence à tout v.a. X ∈ L1(F ) on procède par approxima-
tion. Soit X 0 et dans L1. Soit Xn(ω) = max (X(ω), n) et Yn la projection orthogonale corres-
pondante sur L2(B). Alors pour n m on a que 0 E[1A(Xn − Xm)] = E[1A(Yn − Ym)] pour tout
A ∈ B ce qu’implique que Yn Ym p.s. (vérifier) et qu’il existe un ensemble de mesure nulle N ∈
B en dehors duquel la suite {Yn(ω)}n est croissante pour tout ω ∈ N c. Soit Y = supn Yn. On a
que E[1AY ] = supn E[1AYn] = supn E[1AXn] = E[1AX] par convergence monotone et donc que
Y ∈ L1(B) et que Y = E[X |B]. Pour une générique X ∈ L1 soit X = X+ − X− avec X+, X− 0 et
dans L1. On pose Y ± = E[X±|B] et Y = Y+ − Y−. On obtient que Y ∈ L1(B) et que E[1AX] =
E[1AY ] pour tout A ∈ B.
L’espérance conditionnelle 3
Proposition 5.
1. E(X |B) ∈ L1(Ω, B, P).
2. Soient Y , Y deux espérances conditionnelles de X sachant B, alors Y = Y p.s.. En parti-
culier si X ∈ˆ B alors E(X |B) = X p.s.
Démonstration. (Voir le poly du cours de processus discrets)
Si on conditionne par rapport à une v.a. X donnée on trouve bien que la probabilité condition-
nelle est une fonction des valeurs de X:
Proposition 6. Il existe une fonction mesurable hZ telle que E[Z |X] = hZ (X) p.s.
Démonstration. La v.a. E[Z |X] est σ(X)-mesurable. On utilise donc le théorème 1.
Proposition 7. Pour tout X , Y ∈ L1(F ) et tout sous-tribu G , H ⊆ F on a les propriétés sui-
vantes:
1. Linéarité: E[X + Y |G] = E[X |G] + E[Y |G];
2. Positivité: X 0 p.s. ⇒ E[X |G] 0 p.s.
3. Convergence monotone: 0 Xn X p.s. ⇒ E[Xn |G]E[X |G] p.s.
4. Inégalité de Jensen: si ϕ est convexe et ϕ(X) ∈ L1: E[ϕ(X)|G] ϕ(E[X |G])
5. Contractivité dans L p: E[X |G] p X p.
6. Emboîtement: Si H est une sous-tribu de G alors E[E[X |G]|H] = E[X |H] = E[E[X |H]|G].
ˆ G, E[|X |] < ∞ et E[|X Z |] < + ∞ alors E[X Z |G] = Z E[X |G].
7. Si Z∈
Démonstration.
1. Exercice.
2. on remarque que si E[X |G] ε < 0 sur A ∈ G tel que P(A) > 0 alors 0 < E[X 1A] =
E[E[X |G]1A] εP(A) < 0 ce qui est impossible.
3. Soit Yn = E[Xn |G]. Par la positivité de l’esp. cond. on a que Yn est une suite croissante.
Soit Y = limsupn Yn alors Y ∈ ˆ G et le théorème de convergence monotone nous permet de
passer à la limite dans l’égalité E[Xn1A] = E[Yn1A] pour obtenir que E[X 1A] = E[Y 1A]
pour tout A ∈ G. Donc Y = E[X |G] p.s.
4. Tout fonction convexe ϕ peut s’écrire dans la forme ϕ(x) = supn1 (an x + bn) pour une
suite dénombrable des couples (an , bn) ∈ R2. Donc E[ϕ(X)|G] anE[X |G] + bn et on peut
conclure.
5. On utilise la propriété (4). exercice.
6. Exercice.
7. Admis. (Facile pour des fonctions étagées, utiliser des limites monotones dans le cas X ,
Z 0 et conclure).
On rappelle que un π-système I sur C est une famille de parties de C stable pour intersection
finie. Et que si deux mesures µ, ν defines sur σ(I) coincident sur I alors elle sont egales.
Proposition 8. Si H et G sont indépendantes, X est G-mesurable et G ⊆ G, alors
E[X |H, G ] = E[X |G ].
Démonstration. On supposer que X 0 et L1. Soit G ∈ G et H ∈ H. Par hypothese X 1G∈ ˆG
et 1H ∈ H sont indépendantes, donc E[X 1G 1H ] = E[X 1G]E[1H ] et si on note Y = E[X |G ] on a
aussi que, E[Y 1G 1H ] = E[Y 1G]E[1H ] ce qui nous dit que E[X 1G 1H ] = E[Y 1G 1H ] donc pour les
mesures
µX (F ) = E[X 1F ] et µY (F ) = E[X 1F ]
4 Section 2
définie sur σ(G , H) ont la même masse et vérifient µX (G ∩ H) = µY (G ∩ H) pour tout G ∈ G et
H ∈ H. Mais la classe des événements de la forme G ∩ H est un π-système et donc les mesures
sont egales sur tout σ(G , H).
Proposition 9. (Conditionnement et indépendance) Si X1, , Xn est une famille des v.a. indé-
pendantes et f (X1, , Xn) ∈ L1 alors
E[f (X1, , Xn)|X1] = ϕ(X1)
où ϕ(x) = E[f (x, X2, , Xn)].
Démonstration. Utiliser le théorème de Fubini sur la loi jointe de X1, , Xn.
Exercice 2. (Processus de branchement) Soit {Xm,r: m, r ∈ N} une double suite des v.a. iid.
discrètes et à valeurs 0. On pose Z0 = 1 et Zn = Xn,1 + + Xn,Zn −1 pour n 1. Montrer que
la fonction génératrice fn(θ) = E[θZn] pour tout θ ∈ [0, 1] satisfait
f0(θ) = 1 fn = fn−1(f (θ)) pour n 1.
Solution.
fn(θ) = E[E[θ Zn |Zn−1]]
Or
∞
∞
E[θ Zn |Zn−1] = E[θXn,1 + +Xn,k
IZn−1 =k |Zn−1] = E[θXn,1 + +Xn,k
|Zn−1]IZn −1 =k
k=0 k=0
et
E[θ Xn,1 + +Xn,k
|Zn−1] = E[θ Xn,1 + +Xn,k
] = (E[θX1,1])k = f (θ)k
car {Xn,k: k 1} est indépendant de Zn−1∈
ˆ σ(Xm,k , 1 m n − 1, k 1). Donc
∞
E[θ Zn |Zn−1] = f (θ)kIZn−1 =k = f (θ)Zn −1
k=0
ce qui nous permet de conclure que
fn(θ) = E[f (θ)Zn−1] = fn−1(f (θ)).
Exercice 3. Soit E[Y |G] = X et E[X 2] = E[Y 2] en déduire que X = Y a.s.
Exercice 4. Prouver une inégalité de Chebishev conditionnelle.
Exercice 5. Prouver l’inégalité de Cauchy-Schwartz conditionnelle
E[|XY ||G]2 E[|X |2|G] E[|Y |2|G].
Exercice 6. Soit (X0, X1, , Xn) un vecteur Gaussien de moyenne nulle et matrice de cova-
riance Γ = (Γij )i,j =1, ,n. Montrer que
n
E[X0|X1, , Xn] = λiXi p.s.
i=1
et déterminer les poids λi en fonction de Γ.
Exercice 7. Donner un exemple avec Ω = {a, b, c} pour montrer que, en général,
E[E[X |F1]|F2] E[E[X |F2]|F1].
Exercice 8. Montrer les implications suivantes
X , Y independantes ⇒ E[X |Y ] = E[X] ⇒ E[X Y ] = E[X] E[Y ]
et trouver des v.a. X , Y ∈ { − 1, 0, 1} pour montrer que les implications inverses sont fausses.