EI-SE3 / Probabilités / Contrôle 2
24 mai 2016
Exercice 1 [7 points]
Soit (Xn ) une suite de variables aléatoires indépendantes de loi uniforme sur [0, 1].
On pose In = min1≤i≤n Xi et Sn = max1≤i≤n Xi .
(a) Donner la fonction de répartition puis la densité de la variable aléatoire In . [2]
Solution :
Soit x ∈ R.
0 si x < 0 ,
min Xi ≤ x = 1 − P (∀i ∈ [[1, n]] Xi > x)
P 1≤i≤n
P(In ≤ x) =
P min Xi ≤ x = 1 − (1 − x)n si x ∈ [0, 1]
1≤i≤n
1 si x > 1 ,
d
par hypothèse sur les Xi (iid.). Donc fIn (x) = dx
P(In ≤ x) = n(1 − x)n−1 1x∈[0,1] .
(b) Étudier la convergence de la suite (In ) en loi, puis pour les autres modes. [3]
Solution :
Sur [0, 1], FIn (x) = 1 − (1 − x)n converge ponctuellement vers la fonction égale à
1 partout sauf en 0. Donc FIn converge ponctuellement vers 1x>0 . Cette dernière
fonction n’est pas continue à droite en zéro, donc ne peut pas être une fonction de
répartition. Elle est cependant égale presque partout à 1x≥0 qui elle vérifie toutes
les propriétés d’une fonction de répartition. On en déduit que In converge en loi
vers X = 0.
Soit ε ∈]0, 1[. P(In > ε) = (1 − ε)n −→ 0, donc il y a convergence en probabilité.
La
P+∞convergence presque sûre est assurée par la convergence de la série
1−ε r
n=1 P(In > ε) = ε < +∞. Finalement, In ≤ In pour r ≥ 1 car In est à support
dans [0, 1] ; on a donc
Z 1
r 1
E[In ] ≤ E[In ] = nx(1 − x)n−1 = −→ 0 ,
0 n+1
d
après calculs en remarquant que dx (−x(1 − x)n ) = −(1 − x)n + nx(1 − x)n−1 (ou en
effectuant le changement de variable y = 1−x). C’est-à-dire que l’on a convergence
en moyenne d’ordre r pour tout r ≥ 1.
Probabilités EI-SE3 1/4
(c) Étudier la convergence en loi de la suite (Yn = n(1 − Sn )). [2]
Solution :
n(1 − Sn ) ≥ 0, donc le support est inclus dans R+ . Soit alors x ∈ R+ .
x
P(n(1 − Sn ) ≤ x) = P Sn ≥ 1 −
n
x
= 1 − P Sn < 1 −
n
x n
=1− 1−
n
−x
−→ 1 − e en utilisant la propriété rappelée au tableau
On reconnaı̂t la fonction de répartition de la loi exponentielle de paramètre λ = 1 :
n(1 − Sn ) converge en loi vers Y ∼ E(1).
Exercice 2 [2 points]
Soit la suite de variables aléatoires (Xn ) définie pour n ∈ N par :
1
P(Xn = 0) = 1 −
n
P(Xn = n) =
1
n
Montrer que la suite (Xn ) converge en probabilité vers X = 0 mais que (Xn ) ne converge
pas en moyenne quadratique. Bonus : qu’en est-il de la convergence presque sûre ?
Solution :
Soit ε > 0. On remarque que P(Xn > ε) ≤ P(Xn > 0) = n1 −→ 0, donc il y a conver-
2
gence en probabilité. En revanche, E[Xn2 ] = nn = n qui ne converge pas, donc il n’y a
pas convergence en moyenne quadratique.
Concernant la convergence presque sûre la condition suffisante +∞
P
n=0 P(Xn > ε) < +∞
n’est pas vérifiée, donc il faut procéder autrement. On applique le lemme de Borel-
CantelliPà la suite d’évènements En = {Xn = n} : ceux-ci sont indépendants et l’on
vérifie n∈N P({Xn = n}) = +∞. Alors avec probabilité 1 une infinité d’évènements
En se réalisent, et on obtient pour n ∈ N
P sup XN > ε = P(∃N ≥ n / XN = N )
N ≥n
= P(∃N ≥ n / EN se réalise)
=1
Il n’y a donc pas convergence presque sûre.
Probabilités EI-SE3 2/4
Exercice 3 [4 points]
Soient X et Y deux variables aléatoires indépendantes suivant une loi de Bernoulli de
même paramètre p. On note U = X + Y et V = X − Y .
Déterminer la loi du couple (U, V ). U et V sont-elles indépendantes ?
Solution :
U est à valeurs dans {0, 1, 2} et V à valeurs dans
{−1,
0, 1}. On remarque que la donnée
1 1
de U et V détermine X et Y car la matrice est inversible. Il suffit donc de
1 −1
donner le tableau des probabilités en résolvant le système associé pour chaque couple
de valeurs de (U, V ).
U\ V -1 0 1
0 0 (1 − p)2 0
1 p(1 − p) 0 p(1 − p)
2 0 p2 0
On remarque que P((U, V ) = (0, −1)) = 0, alors que P(U = 0)P(V = −1) = p(1−p)3 >
0 : les variables aléatoires U et V ne sont pas indépendantes.
Exercice 4 [7 points]
On définit un couple (X, Y ) de variables aléatoires de densité de probabilité f :
(
f (x, y) = x + y si (x, y) ∈ [0, 1]2
0 sinon
(a) Calculer les densités marginales fX et fY respectivement de X et Y . [2]
Ces variables aléatoires sont-elles indépendantes ?
Solution :
R1 R1
fX (x) = y=0 f (x, y)dy = x + 12 . De même, fY (y) = x=0 f (x, y)dx = y + 21 .
1
On observe que fX (0)fY (0) = 4
6= 0 = f (0, 0), donc X et Y ne sont pas
indépendantes.
(b) Déterminer la densité de Z = X + Y . [3]
Indication : dessiner la zone correspondant à Z ≤ z en fonction des valeurs de z.
Solution :
Soit z ∈ R. On calcule P(Z ≤ z). Si z < 0 cette probabilité vaut 0, et si z > 2 elle
vaut 1 car X + Y ∈ [0, 2]. On peut donc supposer z ∈ [0, 2].
Probabilités EI-SE3 3/4
Z
P(X + Y ≤ z) = 1x+y≤z f (x, y)dxdy
[0,1]2
On distingue alors les cas z ∈ [0, 1] et z ∈]1, 2] (le domaine d’intégration change,
faire un dessin pour s’en convaincre). Si z ∈ [0, 1] :
Z z Z z−x
P(X + Y ≤ z) = (x + y)dxdy
x=0 y=0
Z z 2
z − x2
= dx
x=0 2
z3
=
3
Et si z ∈ [1, 2] :
Z 1 Z min(1,z−x)
P(X + Y ≤ z) = (x + y)dxdy
x=0 y=0
Z 1
min(1, z − x)2
= x min(1, z − x) + dx
x=0 2
Z z−1 Z 1
z 2 − x2
1
= x+ dx + dx
x=0 2 x=z−1 2
1
= z 2 − (z 3 + 1)
3
On peut finalement donner la densité de la variable aléatoire Z :
0 si z < 0 ,
z 2 si z ∈ [0, 1] ,
fZ (z) =
2z − z 2 si z ∈ [1, 2] ,
0 si z > 2 ,
(c) Calculer la covariance du couple (X, Y ). [2]
Solution :
Cov(X, Y ) = E[XY ] − E[X]E[Y ] .
R1
On calcule alors E[X] = 0 x x + 12 dx = 127
= E[Y ] par symétrie des rôles, puis
R1 R1 1
E[XY ] = x=0 y=0 xy(x + y)dxdy = 3 , et enfin
1 49 −1
Cov(X, Y ) = − = .
3 144 144
Probabilités EI-SE3 4/4