0% ont trouvé ce document utile (0 vote)
117 vues6 pages

Espérance conditionnelle et martingales L2

Ce document présente la solution à plusieurs exercices sur l'espérance conditionnelle et les lois conditionnelles. Il définit notamment l'espérance conditionnelle dans L2 et démontre des propriétés sur les variables aléatoires X et Y lorsque E[X|Y]=Y et E[Y|X]=X. Il examine également la convergence de martingales rétrogrades et la positivité de l'espérance conditionnelle.

Transféré par

bellahcenes484
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
117 vues6 pages

Espérance conditionnelle et martingales L2

Ce document présente la solution à plusieurs exercices sur l'espérance conditionnelle et les lois conditionnelles. Il définit notamment l'espérance conditionnelle dans L2 et démontre des propriétés sur les variables aléatoires X et Y lorsque E[X|Y]=Y et E[Y|X]=X. Il examine également la convergence de martingales rétrogrades et la positivité de l'espérance conditionnelle.

Transféré par

bellahcenes484
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Processus aléatoires Thomas Budzinski

ENS Paris, 2017-2018 Bureau V2


[Link]@[Link]

TD 6 : Espérance conditionnelle dans L2, lois conditionnelles


Corrigé

Mercredi 18 Octobre

1 Espérance conditionnelle dans L2


Exercice 1
On se donne deux variables aléatoires réelles positives X et Y , et on suppose que E[X|Y ] = Y et
E[Y |X] = X.
1. Montrer que si X et Y sont dans L2 , alors X = Y p.s..
2. On se place maintenant dans le cas général. Montrer que X = Y en remarquant que, pour tout
a ≥ 0, on a
E [X 1X≤a ] = E [Y 1X≤a ] .

Solution de l’exercice 1
1. On calcule
E (X − Y )2 = E X 2 + E Y 2 − 2E [XY ] .
     
     
Or E[XY ] = E [XE[Y |X]] = E X 2 et de même E[XY ] = E Y 2 , donc E (X − Y )2 = 0 et X = Y
p.s..
On peut aussi le voir autrement en utilisant l’interprétation de l’espérance conditionnelle dans L2 :
il existe deux projections orthogonales p et q telles que p(X) = Y et q(Y ) = X, donc

kXk = kq(Y )k ≤ kY k

et de même dans l’autre sens. On a donc égalité, donc Y ∈ Im(q), donc X = q(Y ) = Y .
2. Soit a ≥ 0. L’égalité
E [X 1X≤a ] = E [Y 1X≤a ]
est une conséquence immédiate de la définition de l’espérance conditionnelle. Notons que le membre
de gauche est fini, donc le membre de droite l’est aussi. L’égalité se réécrit

E [(X − Y )1X≤a ] = 0,

où la variable (X − Y )1X≤a est intégrable car c’est la différence de deux variables intégrables. De
manière symétrique, on obtient
E [(X − Y )1Y ≤a ] = 0
donc, en faisant la différence des deux,

E [(X − Y ) (1Y ≤a − 1X≤a )] = 0.

1
Or, si 1Y ≤a − 1X≤a > 0 alors Y ≤ a < X, et si 1Y ≤a − 1X≤a < 0 alors Y > a ≥ Y . La variable
(X − Y ) (1Y ≤a − 1X≤a ) est donc positive. Comme elle est d’espérance nulle, elle est nulle p.s.. On
en déduit
1Y ≤a = 1X≤a p.s..
Presque sûrement, ceci est vrai pour tout a rationnel positif, donc presque sûrement il n’existe pas
de a rationnel tel que X ≤ a < Y , d’où X ≥ Y p.s.. On a de même l’inégalité inverse, d’où X = Y
p.s..

Exercice 2 (Convergence L2 des martingales rétrogrades)


Soit (Fn )n≥0 une suite décroissante de sous-tribus de F , avec F0 = F . Soit X une variable aléatoire de
carré intégrable.
1. Montrer que les variables E[X|Fn ] − E[X|Fn+1 ] sont orthogonales dans L2 , et que la série
X
(E[X|Fn ] − E[X|Fn+1 ])
n≥0

converge dans L2 .
2. Montrer que si F∞ = Fn , on a
T
n≥0

lim E[X|Fn ] = E[X|F∞ ] dans L2 .


n→∞

Solution de l’exercice 2
1. On calcule, pour m < n :

E [(E[X|Fn+1 ] − E[X|Fn ]) (E[X|Fm+1 ] − E[X|Fm ])]


= E [E[X|Fn+1 ]E[X|Fm+1 ] − E[X|Fn+1 ]E[Y |Fm ] − E[X|Fn ]E[Y |Fm+1 ] + E[X|Fn ]E[X|Fm ]]
= E E[X|Fm+1 ]2 − E[X|Fm ]2 − E[X|Fm+1 ]2 + E[X|Fm ]2
 

= 0,

ce qui montre que la famille (E[X|Fn ] − E[X|Fn+1 ])n≥0 est orthogonale. De plus, pour m = n, on
a h i
2
E (E[X|Fn+1 ] − E[X|Fn ]) = E E[X|Fn ]2 − E[X|Fn+1 ]2 ,
 

P h 2
i h
2
i  
donc par téléscopage E (E(X|Fn+1 ) − E(X|Fn )) ≤ E E [X|F0 ] = E X 2 < +∞, d’où la
convergence de la série dans L2 , par critère de Cauchy dans L2 .
2. On déduit de la question précédente que E [X|Fn ] converge, on note Y la variable aléatoire limite.
On n’a plus qu’à montrer que Y = E [X|F∞ ]. Soit Z une variable F∞ -mesurable bornée. En
particulier, pour tout n, elle est Fn -mesurable donc

E [E [X|Fn ] Z] = E [XZ] .

Quand n tend vers +∞, le membre de gauche tend vers E[Y Z] (en utilisant la convergence de
E [X|Fn ] et l’inégalité de Cauchy-Schwarz), d’où E[Y Z] = E[XZ], d’où Y = E [X|F∞ ].

Remarque Il est aussi possible de résoudre entièrement l’exercice en utilisant seulement le fait que
L2 est un espace de Hilbert. On vérifie facilement que le sous-espace des variables F∞ -mesurables est
l’intersection décroissantes des sous-espaces des variables Fn -mesurables. Il suffit donc de montrer que
dans un espace de Hilbert, les projections orthogonales sur une suite décroissante de sous-espaces fermés
convergent vers la projection orthogonale sur l’intersection de ces sous-espaces.
Exercice 3 (Espérance conditionnelle et positivité) Soit X une variable aléatoire positive sur (Ω, F , P)
et G une sous-tribu de F . Montrer que {E [X|G ] > 0]} est le plus petit ensemble G -mesurable (aux
ensembles négligeables près) qui contient {X > 0}.

2
Solution de l’exercice 3 La variable aléatoire E [X|G ] est par définition G -mesurable, et ]0, +∞[ est un
borélien, donc {E [X|G ] > 0} est un ensemble G -mesurable. De plus, par définition de l’espérance condi-
tionnelle,
E X 1E[X|G ]=0 = E E [X|G ] 1E[X|G ]=0 = 0.
   

Or X 1E[X|G ]=0 ≥ 0 p.s., donc X 1E[X|G ]=0 = 0 p.s.. Cela signifie que

{X > 0} ⊂ {E [X|G ] > 0}

à un ensemble négligeable près.


D’autre part, soit A un ensemble G -mesurable contenant {X > 0}. Alors on a X = 0 p.s. sur Ac .
Toujours par définition de l’espérance conditionnelle on a donc

E [E [X|G ] 1Ac ] = E [X 1Ac ] = 0.

De même E [X|G ] ≥ 0, donc sur Ac on a E [X|G ] = 0 p.s., soit {E [X|G ] > 0} ⊂ A à un ensemble
négligeable près.

2 Lois conditionnelles
Pn
Exercice 4 Soient X1 , . . . , Xn des variables i.i.d. intégrables, et S = i=1 Xi .
— Calculer E [S|X1 ] et E [X1 |S].
— Dans le cas où les Xi sont exponentielles de paramètre λ > 0, déterminer la loi conditionnelle de
X1 sachant S.
Solution de l’exercice 4
— On a
n
X
E [S|X1 ] = E [Xi |X1 ] = X1 + (n − 1)E [X1 ] .
i=1

D’autre part, on a
n
X
E [Xi |S] = E [S|S] = S.
i=1

Or, les variables Xi jouent des rôles symétriques, donc les E [Xi |S] sont toutes égales, d’où
1
E [X1 |S] = S.
n
On peut aussi le vérifier plus proprement de la manière suivante. Soit f : R → R mesurable bornée.
On sait que la loi jointe du couple (Xi , S) ne dépend pas de i, donc les E [Xi f (S)] sont les mêmes
pour tout i. Comme leur somme vaut E [Sf (S)], on a donc
 
S
E [X1 f (S)] = E f (S)
n

pour toute fonction f mesurable bornée, donc E [X1 |S] = Sn .


— Soient f et g deux fonctions mesurables bornées. On cherche à calculer E [g(X1 )|S]. Pour cela, on
calcule Z
E [g(X1 )f (S)] = g(x1 )f (x1 + · · · + xn )λn e−λx1 . . . e−λxn dx1 . . . dxn .
Rn
+

En faisant le changement de variables si = x1 + · · · + xi , on obtient


Z
E [g(X1 )f (S)] = g(s1 )f (sn )λn e−λsn ds1 . . . dsn
0≤s1 ≤···≤sn
λn
Z
= g(x)f (s)(s − x)n−2 e−λs dxds,
(n − 2)! 0≤x≤s

3
en intégrant selon s2 , . . . , sn−1 . En prenant pour g la fonction constante égale à 1, on obtient
+∞
λn
Z
E [f (S)] = f (s)sn−1 e−λs ds,
(n − 1)! 0

donc S a pour densité par rapport à la mesure de Lebesgue


λn
sn−1 e−λs .
(n − 1)!

On cherche à faire apparaître cette densité dans l’expression trouvée précédemment :


Z +∞ Z s
λn (s − x)n−2

E [g(X1 )f (S)] = f (s)sn−1 e−λs g(x)(n − 1) dx ds
(n − 1)! 0 0 sn−1
" Z S #
(S − x)n−2
= E f (S) g(x)(n − 1) dx .
0 S n−1

On a donc
S
(S − x)n−2
Z
E [g(X1 )|S] = g(x)(n − 1) dx.
0 S n−1
Ceci est vrai pour toute fonction g mesurable bornée, donc la loi conditionnelle de X1 sachant S
a pour densité
(S − x)n−2
(n − 1)
S n−1
par rapport à la mesure de Lebesgue. Notons qu’en particulier, pour n = 2, cette densité est
constante. Ainsi, conditionnellement à X1 + X2 , la variable X1 est uniforme sur [0, X1 + X2 ].
Exercice 5 (Processus ponctuel de Poisson)
On note λ la mesure de Lebesgue sur Rd . Soit P un ensemble aléatoire de points dans Rd . Pour tout
borélien A, on note N (A) = |P ∩ A|. On dit que P est un processus ponctuel de Poisson si :
1. pour tout borélien A tel que λ(A) < +∞, la variable N (A) suit une loi de Poisson de paramètre
λ(A),
2. pour tous boréliens disjoints A1 , . . . , Ak , les variables N (Ai ) sont indépendantes.
Soit A un ouvert de Rd tel que λ(A) < +∞. Montrer que conditionnellement à N (A), les points de P
dans A ont la loi de N (A) points uniformes.
Indication : On pourra estimer la probabilité que les points se trouvent dans k ensembles disjoints fixés,
puis utiliser le lemme de classe monotone pour montrer qu’il est suffisant de considérer des ensembles
disjoints.
Solution de l’exercice 5 Soit k ∈ N. Pour x ∈ A et ε > 0, on note Bε (x) le cube de centre x et de côté ε,
c’est-à-dire l’ensemble des y tels que kx − yk∞ ≤ 2ε . Si N (A) = k, on numérote les k points de P ∩ A de
manière aléatoire uniforme X1 , . . . , Xk . Soient également Y1 , . . . , Yk des points indépendantes uniformes
dans A. On va montrer que pour tous points x1 , . . . , xk deux à deux distincts, pour ε > 0 assez petit, on
a
P (X1 ∈ Bε (x1 ), . . . , Xk ∈ Bε (xk )|N (A) = k) = P (Y1 ∈ Bε (x1 ), . . . , Yk ∈ Bε (xk )) . (1)
On prend ε > 0 assez petit pour que les cubes Bε (xi ) sont inclus dans A et deux à deux distinct. On

4
pose Ai = Bε (xi ). On a alors

P (X1 ∈ A1 , . . . , Xk ∈ Ak |N (A) = k)
1 1
= P (N (A1 ) = · · · = N (Ak ) = 1, N (A\(A1 ∪ · · · ∪ Ak )) = 0)

B B
P (N (A) = k) k!

B
k
1 1 Y
= × λ(Ai ) (1) × λ(A\(A1 ∪···∪Ak )) (0)
k! λ(A) (k) i=1
k
eλ(A) Y
= × λ(Ai )e−λ(Ai ) × e−λ(A\(A1 ∪···∪Ak ))
λ(A)k i=1
k
1 Y εdk
= λ(A i ) =
λ(A)k i=1 λ(A)k
= P (Y1 ∈ A1 , . . . , Yk ∈ Ak ) ,
1
où le facteur k! au début vient du fait que les Xi sont numérotés aléatoirement, et que seule une numé-
rotation peut permettre d’avoir X1 dans A1 et ainsi de suite. Cela prouve (1).
On sait que (Xi ) et (Yi ) sont deux variables aléatoires à valeurs dans

fk = {(x1 , . . . , xk ) ∈ Ak |∀i 6= j, xi 6= xj }.
A

ek , on a
On voudrait montrer que pour tout borélien B inclus dans A

P ((X1 , . . . , Xk ) ∈ B) = P ((Y1 , . . . , Yk ) ∈ B) .

On l’a montré pour les ensembles de la forme


k
Y
B= Bε (xi ),
i=1

où les cubes considérés sont disjoints et inclus dans A. Les B de cette forme sont stables par intersections
finies. De plus, ils forment une base d’ouverts de A fk , donc engendrent la tribu borélienne sur Afk , donc
d’après le lemme de classe monotone, il est bien suffisant de considérer ces ensembles.
Remarque Cette propriété montre qu’un processus ponctuel de Poisson est une manière naturelle de
tirer au sort "une infinité de points indépendants uniformes" dans Rd , de manière à n’en avoir qu’un
nombre fini dans tout compact.
Elle est aussi utile pour montrer l’existence de tels ensembles de points et pour les simuler. On peut
procéder ainsi. On découpe Rd en une infinité de cubes unités (ci )i∈I . Soient (Ni )i∈I des variables de
Poisson i.i.d. de paramètre 1. Pour tout i, conditionnellement à Ni , on tire au sort Ni points i.i.d.
uniformes dans le cube ci . L’ensemble aléatoire de points obtenu est alors bien un processus ponctuel de
Poisson (ce n’est pas trivial, mais pas très dur non plus à vérifier).
Remarque Voici une application "concrète". Des statisticiens ont remarqué que le processus ponctuel
de Poisson dans le plan modélisait très bien les impacts des bombardements de Londres par les nazis en
1944. Cela laisse supposer que les bombes étaient envoyées au hasard, sans but précis.
Exercice 6 Que représente la jolie image ci-dessous ?

5
Solution de l’exercice 6 Les points forment un processus ponctuel de Poisson P dans le plan. On a de
plus tracé les cellules de Voronoï associées à ces points : pour chaque point x ∈ P, la cellule de Voronoï
autour de x est l’ensemble des points qui sont plus proches de x que de tout autre point de P. Cela
permet de générer des structures dont les propriétés à grande échelles sont proches de celles d’un réseau
carré ou triangulaire. Elles sont moins régulières localement, mais possèdent une forme d’invariance par
rotation qui n’est pas vérifiée par exemple par le réseau carré.

Vous aimerez peut-être aussi