Sorbonne Université 2023 – 2024
Probabilités approfondies – MU4MA011 27 octobre 2023
Partiel
L’épreuve dure deux heures.
Les trois exercices sont indépendants.
Ni documents, ni calculatrices, ni téléphones.
La note finale sera sur 30 points.
Exercice 1
Barème indicatif : 21 points (7 fois 3)
Soit X une variable aléatoire définie sur un espace probabilisé (Ω, F , P). On suppose que X
est de loi exponentielle de paramètre 1, c’est-à-dire de densité donnée par la formule e−x 1[0,∞[ (x).
Pour tout entier n ⩾ 0, on définit fn : R → R par la formule
fn (x) = x 1 ]−∞,n] (x) + (n + 1) 1 ]n,∞[ (x)
et on pose Yn = fn (X) ainsi que Fn = σ(Yn ).
La sous-tribu Fn est donc définie à partir d’une seule variable aléatoire, à savoir la variable aléatoire Yn .
1. (a) Étant donnés m et n deux entiers vérifiant m ⩾ n ⩾ 0, montrer que fn (Ym ) = Yn .
(b) En déduire que (Fn )n⩾0 est une filtration.
2. (a) Pour tout entier n ⩾ 0, calculer E[X | X > n].
(b) Démontrer que, pour tout n ⩾ 0, on a E[X | Fn ] = Yn presque sûrement.
N’hésitez pas à utiliser que l’événement {X > n} peut également s’écrire {Yn = n + 1}.
(c) Est-ce que (Yn )n⩾0 est une sous-martingale ? Une martingale ? Une martingale fermée ?
3. (a) On note T la partie entière supérieure de X, c’est-à-dire la variable aléatoire définie
par la formule
T (ω) = min{k : k ⩾ X(ω)}.
Montrer que T est un temps d’arrêt pour la filtration (Fn )n⩾0 .
(b) Montrer que la tribu FT des événements antérieurs à T est égale à la tribu σ(X).
Démontrer l’une des deux inclusions donne une partie des points.
Exercice 2
Barème indicatif : 20 points (5 fois 4).
Dans cet exercice, toutes les variables aléatoires sont définies sur un espace de probabilité
(Ω, F , P). On se donne un entier n ⩾ 1 et une norme ∥ · ∥ sur Rn . Ainsi, pour tout x ∈ Rn et
tout réel λ ⩾ 0, on a ∥λx∥ = λ∥x∥.
Soit X une variable aléatoire à valeurs dans Rn . On suppose qu’il existe une fonction mesu-
rable positive q : R+ → R+ telle que pour toute fonction f : Rn → R+ mesurable positive, on
ait l’égalité Z
E[f (X)] = f (x)q(∥x∥) dx.
Rn
On définit la variable aléatoire N = ∥X∥. Le but de l’exercice est de démontrer que les variables
aléatoires N et XN sont indépendantes.
Considérons f : Rn → R+ mesurable positive. Soit h : R+ → R+ mesurable telle que
E[f (X)|N ] = h(N ) p.s.
1. Montrer que pour tout réel λ > 0, on a E[f (λX)|N ] = h(λN ) p.s.
On rappelle que pour u : Rn → R+ et λ > 0, on a u(λx) dx = λ−n
R R
Rn Rn
u(x) dx.
On suppose désormais que pour tous x ∈ Rn et λ > 0, on a f (λx) = f (x).
Z ∞ Z ∞
2. Montrer que h(λN ) − h(N ) dλ = 0 p.s., puis que h(λ) − h(N ) dλ = 0 p.s.
0 0
On pourra admettre et utiliser le fait que N > 0 presque sûrement.
Z ∞
3. Soit ω0 ∈ Ω tel que h(λ) − h(N (ω0 )) dλ = 0. Montrer que h(N ) = h(N (ω0 )) presque
0
sûrement.
4. Montrer que E[f (X)|N ] = E [f (X)] p.s.
X
5. Montrer que N est indépendante de N .
Exercice 3
Barème indicatif : 21 points (7 fois 3).
Sur un espace de probabilité (Ω, F , P), soit (Xn )n⩾0 une suite de variables aléatoires à va-
leurs entières, et soit (Fn )n⩾0 la filtration naturelle associée, c’est-à-dire que Fn = σ(X0 , . . . , Xn )
pour tout n ⩾ 0. On suppose que X0 = 1 presque sûrement, et que pour tout n ⩾ 0, condition-
nellement à Fn , la variable Xn+1 est uniformément distribuée sur {0, 1, 2, . . . , 2Xn } :
1
∀n ⩾ 0, ∀k ⩾ 0, E 1{Xn+1 =k} Fn = 1{0⩽k⩽2Xn } .
2Xn + 1
On notera en particulier que pour tous entiers n ⩾ n0 ⩾ 0, la variable aléatoire Xn est nulle sur
l’évènement {Xn0 = 0}.
1. Montrer que (Xn )n⩾0 est une martingale pour la filtration (Fn )n⩾0 .
2. Soit M ⩾ 0 un entier. Soit TM le temps d’arrêt défini par TM = inf{n ⩾ 0 : Xn > M }.
(a) Montrer que la martingale arrêtée (Xn∧TM )n⩾0 prend ses valeurs dans {0, . . . , 2M }.
On pourra remarquer que Xn+1 ⩽ 2Xn presque sûrement et considérer les valeurs
de Xn∧TM sur les deux évènements {n < TM } et {n ⩾ TM }.
(b) Montrer, pour tout n ⩾ 0, la majoration
1
E 1{1⩽Xn+1 ⩽M } 1{1⩽Xn ⩽M } Fn ⩽ 1− 1{1⩽Xn ⩽M } .
2M + 1
(c) Montrer l’inégalité
n+1 n
! !
\ 1 \
P {1 ⩽ Xm ⩽ M } ⩽ 1− P {1 ⩽ Xm ⩽ M } ,
2M + 1
m=0 m=0
T
et en déduire que l’évènement n⩾0 {1 ⩽ Xn ⩽ M } est négligeable. En déduire
que (Xn∧TM )n⩾0 converge presque sûrement vers une variable aléatoire ZM à valeurs
dans {0} ∪ {M + 1, . . . , 2M }.
(d) Montrer que la convergence de (Xn∧TM )n⩾0 vers ZM a également lieu dans L1 .
3. En considérant E[ZM ], montrer que limM →∞ P(ZM = 0) = 1.
4. En remarquant {ZM = 0} ⊂ {Xn → 0}, en déduire que (Xn )n⩾0 converge vers 0 presque
sûrement. A-t-on la convergence L1 de (Xn )n⩾0 vers 0 ?
Fin du sujet
Solution de l’exercice 1
Voici quelques éléments pour développer une intuition concernant la tribu Fn . Cette intuition n’était
pas nécessaire pour traiter cet exercice.
L’idée est que conditionner par la tribu Fn revient à se donner l’information suivante : je sais si on
a X > n ou X ≤ n ; dans le premier cas, on ne me dit rien de plus tandis que dans le second, on me
révèle la valeur exacte de X. Pourquoi Fn encode-t-elle cette information ? Parce que, pour calculer Yn ,
c’est très exactement l’information dont vous avez besoin, ni plus ni moins.
On peut chercher à rendre cette situation plus tangible. Si on imagine que X est un instant (réel)
auquel notre réveil sonne, alors Fn encode ce qu’on sait à l’instant (entier) n : s’il a sonné, je sais à
quelle heure ; sinon, la seule chose que je sais est qu’il n’a pas encore sonné. Si vous préférez une intuition
visuelle, on peut imaginer que X est l’altitude d’une montagne inconnue et que, à l’instant n, les nuages
sont à altitude n : alors, à l’instant n, si la montagne est plus basse que les nuages, on voit son altitude,
tandis que dans le cas contraire, on sait seulement que la montagne va plus haut que les nuages.
1a. Soient m et n tels que m ⩾ n ⩾ 0. Soit x ∈ R.
• Si x ≤ m, alors on a fm (x) = x donc fn (fm (x)) = fn (x).
• Si x > m, alors on a fm (x) = m + 1 ⩾ n + 1 > n donc fn (fm (x)) = n + 1 mais aussi x > n
donc fn (x) = n + 1. On a donc, dans ce cas également, l’égalité fn (fm (x)) = fn (x).
Ainsi, pour tout réel x, on a fn (fm (x)) = fn (x). Par conséquent, on a fn (fm (X)) = fn (X),
c’est-à-dire fn (Ym ) = Yn .
1b. Soit n ⩾ 0. La fonction fn est mesurable comme somme de produits de fonctions mesurables
(n + 1 est constante, x 7→ x est continue, X est une variable aléatoire et les intervalles sont boréliens).
D’après la question précédente, la variable aléatoire Yn s’écrit sous la forme fn (Yn+1 ) avec fn
mesurable donc Yn est σ(Yn+1 )-mesurable, c’est-à-dire Fn+1 -mesurable. Or, par définition de
σ(Yn ), Fn est la plus petite tribu rendant Yn mesurable. On a donc Fn ⊂ Fn+1 . Cela étant
vrai pour n quelconque, (Fn ) est une filtration.
1X>n ) R ∞ −x
2a. On a E(X | X > n) = E(X P(X>n) . Le dénominateur vaut P(X > n) = n e dx = e−n . En
utilisant la formule de transfert et une intégration par parties, on calcule le numérateur :
Z ∞ Z L
−x −x L −x
E(X 1X>n ) = x ex dx = lim [x × (−e )]n − 1 × (−e ) dx
n L→∞ n
Z ∞
= ne−n + e−x dx = (n + 1)e−n .
n
On en déduit que E(X | X > n) = n + 1.
La loi exponentielle a une propriété assez particulière, vérifiable par le calcul : pour tout s ⩾ 0 et tout
réel t, on a
P(X − s ≤ t | X > s) = P(X ≤ t).
Ainsi, pour tout s ⩾ 0, si on avait dans le cours un concept de loi conditionnelle, on pourrait dire que
≪ la loi de X − s sachant X > s est une exponentielle de paramètre 1 ≫. Invoquant cela pour s = n,
on aurait alors E(X − n | X > n) = E(X). On retrouverait alors le résultat de 2a en remarquant que
E(X − n | X > n) = E(X | X > n) − n et que E(X) = 1.
2b. Remarquons que X = Yn +(X −n−1) 1X>n = Yn +(X −n−1) 1Yn =n+1 . Toutes les variables
aléatoires considérés sont intégrables puisque la variable aléatoire X est de loi exponentielle donc
est intégrable. On peut donc écrire
E(X | Fn ) = E(Yn | Fn ) + E((X − n − 1)1Yn =n+1 | Fn ) = Yn + 1Yn =n+1 E(X − n − 1 | Fn ),
par linéarité de l’espérance conditionnelle puis parce que Yn est Fn -mesurable (puisque Fn =
σ(Yn )). Or, sur l’événement {Yn = n + 1}, la variable aléatoire E(X − n − 1 | Fn ) vaut E(X −
n − 1 | Yn = n + 1) = E(X | X > n) − n − 1, qui est nul d’après la question précédente. D’où le
résultat.
Si on veut être formel, la variable aléatoire E(X − n − 1 | Fn ) est σ(Yn )-mesurable donc de la forme
gn (Yn ), si bien qu’elle doit prendre une unique valeur gn (n + 1) sur l’événement {Yn = n + 1}. On
détermine alors cette valeur en utilisant que, pour l’événement A = {Yn = n + 1} ∈ Fn , on doit avoir
E(E((X − n − 1) | Fn ) 1A ) = E((X − n − 1) 1A ).
2c. D’après la question précédente, (Yn ) est une martingale fermée. C’est donc une martingale
et en particulier aussi une sous-martingale.
3a. Pour tout n ⩾ 0, on a {T ≤ n} = {X ≤ n} = {Yn ̸= n + 1} ∈ Fn donc T est un temps
d’arrêt.
3b. Chaque variable aléatoire Yn s’écrit fn (X) avec fn mesurable donc chaque Yn est σ(X)-
mesurable. Donc, pour tout entier n ⩾ 0, on a Fn ⊂ σ(X). On a donc aussi F∞ ⊂ σ(X). En
particulier, on a FT ⊂ σ(X).
Soit t un réel. Il s’agit de montrer que {X ≤ t} ∈ FT . Pour ce faire, on remarque que X = YT .
Ainsi, pour tout entier n ⩾ 0, on a {X ≤ t} ∩ {T = n} = {Yn ≤ S t} ∈ Fn . Enfin, l’événement
{X ≤ t} appartient bien à F∞ car on peut l’écrire sous la forme 0≤n<∞ {X ≤ t} ∩ {T = n},
où chaque {X ≤ t} ∩ {T = n} est dans Fn donc dans F∞ . D’où l’inclusion σ(X) ⊂ FT .
Solution de l’exercice 2
1. On utilise la méthode de la fonction muette. Soit g : R → R une fonction mesurable
positive. On a
Z Z
E[f (λX)g(N )] = f (λx)g(∥x∥)q(∥x∥) dx = f (λx)g( λ1 ∥λx∥)q( λ1 ∥λx∥) dx
Rn Rn
qui, d’après le changement de variable rappelé en indication, vaut
g( 1 ∥x∥)q( λ1 ∥x∥)
Z Z
−n 1 1 −n
λ f (x)g( λ ∥x∥)q( λ ∥x∥) dx = λ f (x) λ q(∥x∥) dx
Rn Rn q(∥x∥)
h g( 1 N )q( λ1 N ) i
= λ−n E f (X) λ .
q(N )
On calcule cette espérance en conditionnant sachant σ(N ) :
g( λ1 N )q( λ1 N ) i g( λ1 N )q( λ1 N ) i g( λ1 N )q( λ1 N )
h h
E f (X) = E E f (X) N = E E f (X) N
q(N ) q(N ) q(N )
1 1
g( λ N )q( λ N )
= E h(N ) .
q(N )
En reprenant notre calcul, on trouve donc
g( 1 N )q( λ1 N )
E[f (λX)g(N )] = λ−n E h(N ) λ
q(N )
Z
= λ−n h(∥x∥)g( λ1 ∥x∥)q( λ1 ∥x∥) dx
Rn
et en faisant à nouveau le changement de variables, mais cette fois dans l’autre sens, on trouve
Z
E[f (λX)g(N )] = h(∥λx∥)g(∥x∥)q(∥x∥) dx = E[h(λN )g(N )].
Rn
On en déduit que h(λN ) est l’espérance conditionnelle de f (λX) sachant N .
2. L’hypothèse entraı̂ne que f (λX) = f (X) presque sûrement donc, en prenant l’espérance
conditionnelle sachant N , que h(λN ) = h(N ) presque sûrement.
Ceci a lieu pour tout λ > 0.
On a donc, pour tout λ > 0, l’égalité E |h(λN ) − h(N )| = 0, si bien que
Z +∞
0= E |h(λN ) − h(N )| dλ.
0
Grâce au théorème de Fubini, ceci devient
Z +∞
0=E |h(λN ) − h(N )| dλ
0
et de cette égalité on déduit que la variable aléatoire positive
Z +∞
|h(λN ) − h(N )| dλ,
0
dont l’espérance est nulle, est nulle presque sûrement.
Soit maintenant ω ∈ Ω tel que l’intégrale ci-dessus soit nulle et N (ω) > 0. En faisant le
changement de variable λ′ = λN (ω), on trouve
Z +∞ Z +∞
1
0= |h(λN (ω)) − h(N (ω))| dλ = |h(λ′ ) − h(N (ω))| dλ′ ,
0 N (ω) 0
si bien que Z +∞
|h(λ) − h(N (ω))| dλ = 0.
0
Cette égalité a donc lieu presque
Z ∞sûrement.
3. Fixons ω0 ∈ Ω tel que h(λ) − h(N (ω0 )) dλ = 0 et utilisons l’inégalité triangulaire
0
pour borner l’intégrale
Z ∞ Z ∞ Z ∞
h(N ) − h(N (ω0 )) dλ ⩽ h(N ) − h(λ) dλ + h(λ) − h(N (ω0 )) dλ.
0 0 0
R∞
Z ∞
Comme 0 h(N ) − h(λ) dλ = 0 presque sûrement et h(λ) − h(N (ω0 )) dλ = 0, on a que
0
Z ∞
h(N ) − h(N (ω0 )) dλ = 0 presque sûrement.
0
Or, comme la fonction à intégrer ne dépend pas de λ,
Z ∞
h(N ) − h(N (ω0 )) dλ = ∞ × h(N ) − h(N (ω0 )) ,
0
d’où on conclut que h(N ) = h(N (ω0 )) presque sûrement.
4. Comme h(N ) = h(N (ω0 )) presque sûrement, E[h(N )] = E[h(N (ω0 ))] = h(N (ω0 )). Ceci
implique que h(N ) = E[h(N )] presque sûrement et l’espérance de h(N ) peut s’obtenir par le
calcul E[h(N )] = E[E[f (X)|N ]] = E[f (X)]. Alors, presque sûrement,
E[f (X)|N ] = h(N ) = E[f (X)].
5. Soient A ∈ B(Rn ) et B ∈ B(R). La fonction f : Rn → R+ donnée par f (x) = 1A (x/∥x∥)
si x ̸= 0 et f (0) = 0 est mesurable et satisfait que f (λx) = f (x) pour tout λ > 0. On a que
X h X i
P ∈ A et N ∈ B = E 1A 1B (N ) = E[f (X)1B (N )].
N N
En remarquant que E[f (X)1B (N )|N ] = E[f (X)|N ]1B (N ) = E[f (X)]1B (N ) on obtient
E[f (X)1B (N )] = E[E[f (X)1B (N )|N ]] = E[E[f (X)]1B (N )] = E[f (X)]E[1B (N )].
Comme E[f (X)] = P( X
N ∈ A) on trouve
X X
P ∈ A et N ∈ B = P ∈ A P(N ∈ B).
N N
X
Ceci étant valable pour tout A ∈ B(Rn ) et B ∈ B(R), les variables N et N sont indépendantes.
Solution de l’exercice 3
1. Le fait que Xn est Fn -mesurable est évident par définition de la tribu Fn . Une récurrence
permet de montrer que pour tout n, on a 0 ⩽ Xn ⩽ 2n , donc la variable aléatoire Xn est
bornée, et donc intégrable. Enfin, on a
∞ ∞
!
X X
E(Xn+1 |Fn ) = E k1Xn+1 =k |Fn = kE(1Xn+1 =k |Fn )
k=0 k=0
∞
X 1
= k 10⩽k⩽2Xn
2Xn + 1
k=0
1 (2Xn + 1)2Xn
= ×
2Xn + 1 2
= Xn
(la deuxième égalité découle du théorème de convergence monotone, ou du théorème de
Fubini positif). La suite (Xn ) est donc bien une (Fn )-martingale.
2. (a) Par définition de Xn , on a presque sûrement Xn+1 ⩽ 2Xn . Par ailleurs, sur {n < TM },
on a par définition Xn∧TM = Xn ⩽ M , et sur {n ⩾ TM }, on a Xn∧TM = XTM ⩽
2XTM −1 ⩽ 2M .
(b) On écrit
M
X
E(11⩽Xn+1 ⩽M 11⩽Xn ⩽M |Fn ) = 11⩽Xn ⩽M E(1Xn+1 =k |Fn )
k=1
M
X 1
= 11⩽Xn ⩽M 1k⩽2Xn
2Xn + 1
k=1
2Xn
⩽ 11⩽Xn ⩽M
2Xn + 1
1
= 11⩽Xn ⩽M 1 −
2Xn + 1
1
⩽ 11⩽Xn ⩽M 1 − .
2M + 1
(c) Par la propriété des espérances conditionnelles emboı̂tées, puis la question 2b, on a
n+1
!
\
P {1 ⩽ Xm ⩽ M } = E(E(1Tn+1 {1⩽Xm ⩽M } |Fn ))
m=0
m=0
= E(1Tn−1 {1⩽Xm ⩽M } E(1{1⩽Xn+1 ⩽M } 1{1⩽Xn ⩽M } |Fn ))
m=0
1
⩽ 1− E(1Tnm=0 {1⩽Xm ⩽M } )
2M + 1
n
!
1 \
= 1− P {1 ⩽ Xm ⩽ M } .
2M + 1
m=0
On a donc, par récurrence
n
! n
\ 1
P {1 ⩽ Xm ⩽ M } ⩽ 1−
2M + 1
m=0
T
et en passant à la limite n → ∞, l’évènement n⩾0 {1 ⩽ Xn ⩽ M } est négligeable. Par
conséquent, Xn va presque sûrement sortir de l’ensemble {1, . . . , M }. La suite (Xn∧TM )
restant stationnaire dès qu’elle a quitté {1, . . . , M }, elle converge donc presque sûrement
vers une variable à valeurs dans {0, . . . , 2M } \ {1, . . . , M }.
(d) C’est une conséquence du théorème de convergence dominée (on a démontré la conver-
gence presque sûre en question 2c et on peut dominer Xn∧TM par la constante 2M
d’après la question 2a).
3. Comme la martingale arrêtée est une martingale, on a, pour tout n, E(Xn∧TM ) = E(X0 ) =
1. Par convergence L1 , on a donc E(ZM ) = 1. Enfin, comme ZM prend ses valeurs
dans {0} ∪ {M + 1, . . . , 2M }, on a
E(ZM ) 1
P(ZM = 0) = 1 − P(ZM > M ) ⩾ 1 − =1− ,
M M
où on a utilisé l’inégalité de Markov. En faisant tendre M vers l’infini, on obtient bien limM P(ZM =
0) = 1.
4. On a
{ZM = 0} = {Xn∧TM → 0} = {Xn → 0} ∩ {TM = ∞} ⊂ {Xn → 0}.
En utilisant la question précédente, on a donc
P(Xn → 0) ⩾ lim P(ZM → 0) = 1
M
5. Si on avait la convergence L1 de (Xn )n⩾0 vers 0, on aurait E(Xn ) → 0, or puisque (Xn )n⩾0
est une martingale, on a E(Xn ) = E(X0 ) = 1 pour tout n. On n’a donc pas de conver-
gence L1 .