0% ont trouvé ce document utile (0 vote)
142 vues5 pages

Lois des variables aléatoires et exercices

Ce document présente plusieurs exercices de probabilités et de statistiques. Les exercices portent sur le calcul de lois de variables aléatoires, l'indépendance et la transformation de variables aléatoires. Les corrections détaillent les calculs et identifient les lois obtenues.

Transféré par

Salma Yousfi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
142 vues5 pages

Lois des variables aléatoires et exercices

Ce document présente plusieurs exercices de probabilités et de statistiques. Les exercices portent sur le calcul de lois de variables aléatoires, l'indépendance et la transformation de variables aléatoires. Les corrections détaillent les calculs et identifient les lois obtenues.

Transféré par

Salma Yousfi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ECC 1A 2017-2018

Probabilités
TD 2

Objectifs.

— Déterminer la loi de variables aléatoires

Exercice 1. Soit (X, Y ) un couple de variables aléatoires de loi E(λ) ⊗ E(µ), avec λ, µ > 0. Calculer
la loi des variables aléatoires suivantes.
1. max(X, Y )
2. min(X, Y )
3. X + Y

Correction.
1. On note Z = max(X, Y ). La fonction de répartition FZ de Z est donnée par : pour tout t ≥ 0

FZ (t) = P(max(X, Y ) ≤ t)
= P(X ≤ t, Y ≤ t)
= P(X ≤ t)P(Y ≤ t) car X et Y sont indépendants.
= FX (t)FY (t)
= (1 − e−λt )(1 − e−µt )
= 1 + e−(λ+µ)t − e−λt − e−µt .

Comme FZ est dérivable, Z est à densité par rapport à la mesure de Lebesgue, et sa densité
est donné par :  
fZ (x) = λe−λt + µe−µt − (λ + µ)e−(λ+µ)t 1R+ (t).

2. La même astuce permet de calculer P(min(X, Y ) > t) et de trouver min(X, Y ) ∼ E(λ + µ).
3. Soit f une fonction borélienne bornée. Alors
Z ∞Z ∞
Ef (X + Y ) = f (x + y)λµe−(λx+µy) dxdy
0 0
Z ∞Z z
= λµ e(λ−µ)y dyf (z)e−λz dz
0 0
(R ∞
f (z)λµze−λz dz si λ = µ
= R0∞ e−µz −e−λz
0 f (z)λµ λ−µ dz sinon.

On peut alors en déduire la densité de la loi de Z.

Exercice 2. Soit (X, Y ) ∼ N (0, Id). Calculer la loi des variables aléatoires suivantes.
1. X 2
X2
2. Y2
X
3. |Y |
4. X + Y
5. X − Y
Les variables aléatoires X + Y et X − Y sont-elles indépendantes ?
On définit de plus, U ∼ U([0; 1]) indépendante de (X, Y ). On pose
X 0 = X cos(2πU ) − Y sin(2πU ) et Y 0 = X sin(2πU ) + Y cos(2πU )
Donner la loi des variables aléatoires suivantes.
1. U 2
2. (X 0 , Y 0 )
Les variables aléatoires X 0 , Y 0 et U sont-elles indépendantes ?
Correction. Dans les trois premiers cas, on utilise la même méthode : on calcule Ef (Z) pour f
borélienne bornée. Un changement de variable approprié (attention à ce qu’il soit bijectif !) permet
d’obtenir les résultats suivants.
1. X 2 a pour densité (pour un certain C > 0)
e−x/2
x 7→ C √ 1R+ (x).
2x
Cette loi est appelée loi du χ2 à 1 degré de liberté.
2
2. X
Y2
a pour densité
1 1
x 7→ 1 + (x).
π x (x + 1) R
1/2

Cette loi est appelée loi de Fisher de paramètres (1,1) et est notée F(1, 1).
3. |YX| a pour densité (pour un certain C > 0)
1
x 7→ C .
1 + x2
Cette loi est appelée loi de Student de paramètre 1 et est notée St(1) (c’est aussi une loi de
Cauchy).
4. X + Y est une combinaison linéaire du couple (X, Y ) qui est un vecteur gaussien. Donc, X + Y
est une variables aléatoire gaussienne. Le calcul de l’espérance et de la variance donne X + Y ∼
N (0, 2).
5. De même, X − Y ∼ N (0, 2).
1. Un changement de variable donne la densité
1
u 7→ 1[0;1] (u).
2u1/2
2. On note φ la fonction
(x, y, u) 7→ (x cos(2πu) − y sin(2πu), x sin(2πu) + y cos(2πu), u).
Sa jacobienne est donnée par
 
cos(2πu) − sin(2πu) −x2π sin(2πu) − y2π cos(2πu)
Jac(φ)(x, y, u) =  sin(2πu) cos(2πu) 2π cos(2πu) − y2π sin(2πu) 
0 0 1
La jacobienne est de déterminant constant 1, donc φ est inversible sur R2 × [0, 1] et son inverse
ψ est de jacobienne de déterminant constant 1. Donc, pour toute fonction f borélienne bornée,
en
Ef (X 0 , Y 0 , U ) = Ef (X cos(2πU ) − Y sin(2πU ), X sin(2πU ) + Y cos(2πU ), U )
Z
x2 +y 2 1
= f (x cos(2πu) − y sin(2πu), x sin(2πu) + y cos(2πu), u)e− 2 1[0,1] (u) dxdydu

Z
x02 +y 02 1
= f (x0 , y 0 , u)e− 2 1[0,1] (u) dx0 dy 0 du

On a utilisé le fait que [x cos(2πu) − y sin(2πu)]2 + [x sin(2πu) + y cos(2πu)]2 = x2 + y 2 . Ce qui
donne (X 0 , Y 0 ) ∼ N (0, Id) et montre aussi que les variables X 0 , Y 0 , U sont indépendantes.

Exercice 3. Soient X = (X1 , ..., Xn ) ∼ N (0, Id) et A une matrice de k lignes et n colonnes.
1. Donner la loi de AX
2. Calculer la loi de ni=1 Xi .
P

3. Calculer la loi de ni=1 Xi2 .


P

On admettra (ce que l’on pourrait montrer à l’aide du théorème des résidus) que pour tout
α, β > 0,
it −α
Z ∞ α  
β α−1 −βx itx
x e e dx = 1 − .
0 Γ(α) β
Correction.
1. Toutes les combinaisons linéaires de AX sont des combinaisons linéaires de X, donc AX est aussi
un vecteur gaussien. L’espérance étant linéaire, EAX = 0. Enfin, la matrice de covariance est
donnée par ΣAX = EAXX T AT . La linéarité de l’espérance donne alors ΣAX = AIdAT = AAT .
2. C’est une variable gaussienne (en tant que combinaison linéaire de coordonnées d’un vecteur
gaussien), d’espérance 0 et de variance n.
3. Il suffit d’utiliser le fait que φPni=1 X 2 = φnX 2 et l’indice donné pour identifier la loi de ni=1 Xi2
P
i 1
à une loi de densité
2−n/2 n/2−1 −x/2
1x>0 x e
Γ(n/2)
C’est la loi du chi-2 à n degré de liberté, noté χ2 (n).

Exercice 4. Soit X = (X1 , ..., Xn ) ∼ N (0, Σ) où Σ est une matrice symétrique définie positive.
1. Justifier l’existence d’une matrice L telle que Σ−1 = LT L
2. Calculer la loi de LX.
Correction.
1. Il s’agit de la décomposition de Cholesky (par exemple). Dans ce cas, L est triangulaire
supérieure (mais on ne l’utilisera pas).
2. De la même façon que dans l’exercice précédent, LX est un vecteur gaussien, et d’espérance 0
et de variance
ΣLX = ELXX T LT = LΣLT = LL−1 (LT )−1 LT = Id

Exercice 5. Soient X, Y deux variables aléatoires indépendantes.


1. Si X ∼ B(p), Y ∼ B(p0 ), que vaut P(X ≥ Y ) ?
2. Si X ∼ P(λ), Y ∼ G(1/4), que vaut EY X ?
3. Si X ∼ U(0, 2), Y ∼ E(1), que vaut P(Y ≤ X) ?

4. Si X ∼ N (0, 1), Y ∼ E(1), que vaut EeX Y ?
Correction.
1. Le calcul donne

P(X ≥ Y ) = P(X = 1, Y = 1) + P(X = 1, Y = 0) + P(X = 0, Y = 0)


= pp0 + p(1 − p0 ) + (1 − p)(1 − p0 )
= 1 − p0 (1 − p)
2. Le calcul donne
 j
i
i −λ λ 3
X
X
EY = je /4
i! 4
i,j≥0
 j X
X
−λ 3 (jλ)i
= e /4
4 i!
j≥0 i≥0
X  3 j
−λ
= e /4 eλ
4
j≥0
1
= e−λ si 4 > 3eλ et + ∞ sinon.
4 − 3eλ

3. Le calcul donne
e−2 + 1
P(Y ≤ X) = .
2
√ √
4. En remarquant que x y − x2 /2 − y = −(x − y)2 /2 − y/2 pour y > 0,
√ Z Z √ 2 dx
−y/2
Ee X Y
= e e−(x− y) /2 √ dy
y>0 2π
Z
= e−y/2 dy
y>0
= 2.

Exercice 6. Soit (X, Y ) un couple de variables aléatoires de densité


x2 +y 2
f(X,Y ) : (x, y) 7→ Ce− 2 1xy>0 .

1. Calculer C.
2. Donner la loi de X et de Y .
3. Calculer la covariance (X, Y ).
4. (X, Y ) est-il un vecteur gaussien ?

Correction.
1. Pour obtenir une densité (donc d’intégrale 1), il faut C = π1 .
2. Le calcul de Ef (X) et Ef (Y ) pour f borélienne bornée montre que X ∼ N (0, 1) et Y ∼ N (0, 1).
3. X et Y sont d’espérance nulle, donc
2
cov(X, Y ) = EXY = .
π
4. Ce n’est pas un vecteur gaussien cas sa matrice de variance-covariance est inversible, et f(X,Y )
n’est pas la densité d’un vecteur gaussien telle que vue en cours.
On peut remarquer que |X| et |Y | sont indépendants.

Exercice 7. Soit (X, Y, Z) ∼ E(1)⊗3 . On pose S = X + Y + Z.


1. Quelle est la loi ( X Y
S , S , S) ?
2. Montrer que la loi de ( X Y
S , S ) est uniforme sur un domaine que l’on précisera.
3. Quelle est la loi de S ?
4. ( X Y
S , S ) et S sont-ils indépendants ?
Exercice 8. Soit (X, Y ) une fonction de densité
1
f : (x, y) 7→ (1 + xy(x2 − y 2 ))1|x|≤1,|y|≤1 .
4
1. Calculer cov(X, Y ).
2. Quelle est la loi de X ? La loi de Y ?
3. Calculer les fonctions caractéristiques de X, Y et X + Y .
4. Les variables X et Y sont-elles indépendantes ?

Vous aimerez peut-être aussi