0% ont trouvé ce document utile (0 vote)
145 vues4 pages

cc2016 2 Corr

Ce document présente quatre exercices portant sur des probabilités. L'exercice 1 étudie la convergence en loi de suites de variables aléatoires. L'exercice 2 porte sur la convergence en probabilité et en moyenne quadratique d'une suite particulière. L'exercice 3 détermine la loi jointe de sommes et différences de variables de Bernoulli. L'exercice 4 calcule des densités marginales et jointes à partir d'une densité bi-variée donnée.

Transféré par

Mëłły Lîlï
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
145 vues4 pages

cc2016 2 Corr

Ce document présente quatre exercices portant sur des probabilités. L'exercice 1 étudie la convergence en loi de suites de variables aléatoires. L'exercice 2 porte sur la convergence en probabilité et en moyenne quadratique d'une suite particulière. L'exercice 3 détermine la loi jointe de sommes et différences de variables de Bernoulli. L'exercice 4 calcule des densités marginales et jointes à partir d'une densité bi-variée donnée.

Transféré par

Mëłły Lîlï
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

EI-SE3 / Probabilités / Contrôle 2

24 mai 2016

Exercice 1 [7 points]

Soit (Xn ) une suite de variables aléatoires indépendantes de loi uniforme sur [0, 1].
On pose In = min1≤i≤n Xi et Sn = max1≤i≤n Xi .

(a) Donner la fonction de répartition puis la densité de la variable aléatoire In . [2]


Solution :
Soit x ∈ R.
0 si x < 0 ,


  


min Xi ≤ x = 1 − P (∀i ∈ [[1, n]] Xi > x)

 P 1≤i≤n


P(In ≤ x) =  
P min Xi ≤ x = 1 − (1 − x)n si x ∈ [0, 1]





 1≤i≤n


1 si x > 1 ,
d
par hypothèse sur les Xi (iid.). Donc fIn (x) = dx
P(In ≤ x) = n(1 − x)n−1 1x∈[0,1] .

(b) Étudier la convergence de la suite (In ) en loi, puis pour les autres modes. [3]
Solution :
Sur [0, 1], FIn (x) = 1 − (1 − x)n converge ponctuellement vers la fonction égale à
1 partout sauf en 0. Donc FIn converge ponctuellement vers 1x>0 . Cette dernière
fonction n’est pas continue à droite en zéro, donc ne peut pas être une fonction de
répartition. Elle est cependant égale presque partout à 1x≥0 qui elle vérifie toutes
les propriétés d’une fonction de répartition. On en déduit que In converge en loi
vers X = 0.

Soit ε ∈]0, 1[. P(In > ε) = (1 − ε)n −→ 0, donc il y a convergence en probabilité.


La
P+∞convergence presque sûre est assurée par la convergence de la série
1−ε r
n=1 P(In > ε) = ε < +∞. Finalement, In ≤ In pour r ≥ 1 car In est à support
dans [0, 1] ; on a donc
Z 1
r 1
E[In ] ≤ E[In ] = nx(1 − x)n−1 = −→ 0 ,
0 n+1
d
après calculs en remarquant que dx (−x(1 − x)n ) = −(1 − x)n + nx(1 − x)n−1 (ou en
effectuant le changement de variable y = 1−x). C’est-à-dire que l’on a convergence
en moyenne d’ordre r pour tout r ≥ 1.

Probabilités EI-SE3 1/4


(c) Étudier la convergence en loi de la suite (Yn = n(1 − Sn )). [2]
Solution :
n(1 − Sn ) ≥ 0, donc le support est inclus dans R+ . Soit alors x ∈ R+ .
 x
P(n(1 − Sn ) ≤ x) = P Sn ≥ 1 −
n
 x
= 1 − P Sn < 1 −
n
 x n
=1− 1−
n
−x
−→ 1 − e en utilisant la propriété rappelée au tableau

On reconnaı̂t la fonction de répartition de la loi exponentielle de paramètre λ = 1 :


n(1 − Sn ) converge en loi vers Y ∼ E(1).

Exercice 2 [2 points]

Soit la suite de variables aléatoires (Xn ) définie pour n ∈ N par :


1

 P(Xn = 0) = 1 −

n
 P(Xn = n) =
 1
n
Montrer que la suite (Xn ) converge en probabilité vers X = 0 mais que (Xn ) ne converge
pas en moyenne quadratique. Bonus : qu’en est-il de la convergence presque sûre ?

Solution :
Soit ε > 0. On remarque que P(Xn > ε) ≤ P(Xn > 0) = n1 −→ 0, donc il y a conver-
2
gence en probabilité. En revanche, E[Xn2 ] = nn = n qui ne converge pas, donc il n’y a
pas convergence en moyenne quadratique.

Concernant la convergence presque sûre la condition suffisante +∞


P
n=0 P(Xn > ε) < +∞
n’est pas vérifiée, donc il faut procéder autrement. On applique le lemme de Borel-
CantelliPà la suite d’évènements En = {Xn = n} : ceux-ci sont indépendants et l’on
vérifie n∈N P({Xn = n}) = +∞. Alors avec probabilité 1 une infinité d’évènements
En se réalisent, et on obtient pour n ∈ N
 
P sup XN > ε = P(∃N ≥ n / XN = N )
N ≥n

= P(∃N ≥ n / EN se réalise)
=1

Il n’y a donc pas convergence presque sûre.

Probabilités EI-SE3 2/4


Exercice 3 [4 points]

Soient X et Y deux variables aléatoires indépendantes suivant une loi de Bernoulli de


même paramètre p. On note U = X + Y et V = X − Y .
Déterminer la loi du couple (U, V ). U et V sont-elles indépendantes ?

Solution :
U est à valeurs dans {0, 1, 2} et V à valeurs dans
 {−1, 
0, 1}. On remarque que la donnée
1 1
de U et V détermine X et Y car la matrice est inversible. Il suffit donc de
1 −1
donner le tableau des probabilités en résolvant le système associé pour chaque couple
de valeurs de (U, V ).
U\ V -1 0 1
0 0 (1 − p)2 0
1 p(1 − p) 0 p(1 − p)
2 0 p2 0
On remarque que P((U, V ) = (0, −1)) = 0, alors que P(U = 0)P(V = −1) = p(1−p)3 >
0 : les variables aléatoires U et V ne sont pas indépendantes.

Exercice 4 [7 points]

On définit un couple (X, Y ) de variables aléatoires de densité de probabilité f :


(
f (x, y) = x + y si (x, y) ∈ [0, 1]2
0 sinon

(a) Calculer les densités marginales fX et fY respectivement de X et Y . [2]


Ces variables aléatoires sont-elles indépendantes ?
Solution :
R1 R1
fX (x) = y=0 f (x, y)dy = x + 12 . De même, fY (y) = x=0 f (x, y)dx = y + 21 .

1
On observe que fX (0)fY (0) = 4
6= 0 = f (0, 0), donc X et Y ne sont pas
indépendantes.

(b) Déterminer la densité de Z = X + Y . [3]


Indication : dessiner la zone correspondant à Z ≤ z en fonction des valeurs de z.
Solution :
Soit z ∈ R. On calcule P(Z ≤ z). Si z < 0 cette probabilité vaut 0, et si z > 2 elle
vaut 1 car X + Y ∈ [0, 2]. On peut donc supposer z ∈ [0, 2].

Probabilités EI-SE3 3/4


Z
P(X + Y ≤ z) = 1x+y≤z f (x, y)dxdy
[0,1]2

On distingue alors les cas z ∈ [0, 1] et z ∈]1, 2] (le domaine d’intégration change,
faire un dessin pour s’en convaincre). Si z ∈ [0, 1] :
Z z Z z−x
P(X + Y ≤ z) = (x + y)dxdy
x=0 y=0
Z z 2
z − x2
= dx
x=0 2
z3
=
3
Et si z ∈ [1, 2] :
Z 1 Z min(1,z−x)
P(X + Y ≤ z) = (x + y)dxdy
x=0 y=0
Z 1
min(1, z − x)2
= x min(1, z − x) + dx
x=0 2
Z z−1  Z 1
z 2 − x2

1
= x+ dx + dx
x=0 2 x=z−1 2
1
= z 2 − (z 3 + 1)
3
On peut finalement donner la densité de la variable aléatoire Z :

 0 si z < 0 ,

 z 2 si z ∈ [0, 1] ,

fZ (z) =

 2z − z 2 si z ∈ [1, 2] ,

0 si z > 2 ,

(c) Calculer la covariance du couple (X, Y ). [2]


Solution :
Cov(X, Y ) = E[XY ] − E[X]E[Y ] .
R1
On calcule alors E[X] = 0 x x + 12 dx = 127

= E[Y ] par symétrie des rôles, puis
R1 R1 1
E[XY ] = x=0 y=0 xy(x + y)dxdy = 3 , et enfin

1 49 −1
Cov(X, Y ) = − = .
3 144 144

Probabilités EI-SE3 4/4

Vous aimerez peut-être aussi