0% ont trouvé ce document utile (0 vote)
484 vues7 pages

Lois des variables aléatoires gaussiennes

Transféré par

FATIHA AIT BOURHOU
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
484 vues7 pages

Lois des variables aléatoires gaussiennes

Transféré par

FATIHA AIT BOURHOU
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Aléatoire – MAP 361 Ecole Polytechnique Salle PC 41

Lundi 20 mai 2019 Sébastien Gadat

PC 5 – Calcul de lois & Vecteurs gaussiens

Exercice 1. Soient X et Y deux variables aléatoires indépendantes gaussiennes centrées


réduites.  
1. Déterminer la loi de X+Y
√ , X−Y
2

2
.
2. Déterminer la loi de X/Y .
x2 +y 2
1 − 2
Solution. Comme X et Y sont indépendantes, la loi de (X, Y ) a une densité 2π e sur R2 .
Soit g : R2 →  une fonction
h R i continue bornée. On applique la méthode de la fonction muette en
X+Y X−Y
calculant E g √
2
, 2
√ :
    
X +Y X −Y x+y x−y
Z
1 x2 +y 2
E g √ , √ = g √ , √ e− 2 dx dy.
2 2 2π R2 2 2

Or (x, y) ∈ R×R 7→ ( x+y


√ , x−y
2
√ ) ∈ R×R est un C 1 -difféormorphisme de jacobien 1. Le changement
2
x+y
de variable u = √
2
et v = x−y
√ donne x = u+v
2
√ et y = u−v
2
√ , de sorte que :
2
  
X +Y X −Y
Z
1 (u+v)2 +(u−v)2
E g √ , √ = g (u, v) e− 4 du dv
2 2 2π R2
Z
1 u2 +v 2
= g (u, v) e− 2 du dv.
2π R2
2 +v 2
1 −u
√ , X−Y
On en déduit que ( X+Y
2
√ ) est à densité, de densité donnée par (u, v) 7→
2 2π e
2 . Ainsi,
( X+Y

2
, X−Y
√) a la même loi qu’un couple de deux variables aléatoires gaussiennes centrées réduites
2
indépendantes.
x2 +y 2
1 − 2
Comme X et Y sont indépendantes, la loi de (X, Y ) a une densité 2π e sur R2 . Soit
g : R → R une fonction continue bornée. On applique la méthode de la fonction muette en
calculant E [g(X/Y )] :
   Z  
X 1 x − x2 +y2
E g = g e 2 dx dy.
Y 2π R2 y
Or (x, y) ∈ R × R∗ 7→ (x/y, y) ∈ R × R∗ est un C 1 -difféormorphisme de jacobien y −1 . En faisant
le changement de variable u = x/y et v = y, de sorte que x = uv et y = v, on a
Z   Z   2 2
x − x2 +y2 x − y ( x +1)
g e 2 dx dy = g |y| e 2 y2 |y|−1 dx dy
R2 y R2 y
Z
v2 2
= g (u) |v| e− 2 (u +1) du dv
2
ZR Z 
v2 2
= g(u) |v| e− 2 (u +1) dv du
R R
Z
1
= 2 g(u) 2 du.
R u +1

1
Donc    Z
X 1 1
E g = g(u) 2 du,
Y π R u +1
ce qui signifie que la loi de X/Y est la loi de Cauchy, c’est-à-dire la loi de densité (π(1 + x2 ))−1
par rapport à la mesure de Lebesgue.

Exercice 2. (Pale 2013) Soient X et Y deux variables aléatoires indépendantes


√ √ de lois respec-
tives Γ(α, λ) et Γ(α + 1/2, λ), avec α > 0 et λ > 0. On pose (V, W ) = ( XY , Y ). Déterminer
la loi de (V, W ).
On rappelle que la densité de la loi Γ(a, λ) est
Z ∞
1 a a−1 −λx
λ x e 1x>0 , avec Γ(a) = z a−1 e−z dz.
Γ(a) 0

Solution. Comme X et Y sont indépendantes, la loi de (X, Y ) a pour densité (x, y) → 7


fX (x)fY (y), où fX et fY désignent les densités de X et Y . On utilise alors la méthode de
la fonction muette :
h √ √ i
E [h(V, W )] = E h( XY , Y )
√ √
Z
= h( xy, y)f(X,Y ) (x, y)dxdy
2
ZR
√ √
= h( xy, y)fX (x)fY (y)dxdy
R2
λ2α+1/2 √ √
Z
dxdy
= h( xy, y)(xy)α−1/2 e−λ(x+y) √ .
Γ(α)Γ(α + 1/2) ]0,∞[2 x
√ √
On considère le changement de variable v = xy, w = y qui est un C 1 difféomorphisme de
]0, ∞[2 dans lui-même. Le calcul du déterminant de la matrice jacobienne donne

dxdy
dvdw = √ .
4 x

Ainsi, avec y = w2 et x = v 2 /w2 ,

4λ2α+1/2
Z
2 + v2 )
E [h(V, W )] = h(v, w)v 2α−1 e−λ(w w2 dvdw.
Γ(α)Γ(α + 1/2) ]0,∞[2

Ainsi, (V, W ) est à densité et sa densité est donnée par

4λ2α+1/2 2 v2
f(V,W ) (v, w) = v 2α−1 e−λ(w + w2 ) 1v>0,w>0 .
Γ(α)Γ(α + 1/2)

Exercice 3. 1. Soit (X, Y ) un couple de variables indépendantes de lois respectives Γ(a, λ)


et Γ(b, λ). Déterminer la loi jointe du vecteur aléatoire (U, V ) où U = X/Y et V = X +Y .
2. Soient Z et S des variables indépendantes de lois respectives N (0, 1) et χ2n . On appelle
loi de Student à n degrés de liberté la loi de la variable T = √Z . Montrer que la densité
S/n
de T est donnée sur R par
− n+1
Γ n+1
 
2 t2 2
t 7→ √ 1 + .
nπΓ n2

n

2
Solution. 1. D’après le cours, V suit la loi Gamma Γ(a+b, λ). En revanche, pour déterminer
la densité jointe de (U, V ) on utilisera la méthode de la fonction muette. Soit h : R2 → R2
une fonction continue, bornée. Notons que par indépendance f(X,Y ) = fX fY . On a
Z  
x
E [h(U, V )] = h , x + y f(X,Y ) (x, y)d(x, y)
R2 y
λa+b
Z  
x
= h , x + y xa−1 y b−1 e−λ(x+y) d(x, y).
Γ(a)Γ(b) R2+ y

Faisons le changement
  de variables (u, v) = φ(x, y) := (x/y, x + y). La réciproque est
φ−1 (u, v) = 1+u , 1+u . Le Jacobien J de φ−1 (u, v) vaut
uv v

!
v u
(1+u)2 1+u v uv v
J = det v 1 = + = .
− (1+u) 2 1+u (1 + u)3 (1 + u)3 (1 + u)2

On en déduit que

uv a−1
b−1
λa+b
  
|v|
Z
v
E [h(U, V )] = h(u, v) e−λv 1 uv v d(u, v)
Γ(a)Γ(b) R2 1+u 1+u (1 + u)2 { 1+u >0, 1+u >0}
λa+b a+b−1 −λv ua−1
Z
Γ(a + b)
= h(u, v) v e 1v>0 1u>0 d(u, v).
R2 Γ(a + b) Γ(a)Γ(b) (1 + u)a+b
| {z }| {z }
=fV (v) =fU (u)

On observe que V suit bien la loi Gamma Γ(a+b, λ). La loi de U est dite loi beta prime de
paramètres a et b. En plus, U et V sont indépendantes, car la densité jointe se factorise.
2. Soit h : R → R une fonction continue, bornée. On a
Z r 
n
E [h(T )] = h z fZ (z)fS (s)d(z, s)
R2 s
Z Z r 
n 1 z2 1 n s
= h z √ e− 2 n n
 s 2 −1 e− 2 dzds.
R+ R s 2π 22Γ 2

Par le changement de variable t = ns z avec dz = ns dt, on obtient


p p

Z Z r
1 − st
2 n
−1 − 2s s
E [h(T )] = n+1 √ h(t)e 2n s 2 e dtds
2 2 Γ 2 n
π R+ R n
s t2
Z Z   
1 n+1
−1
= n+1 √ h(t) s 2 exp − +1 dsdt
2 2 Γ n2 nπ R R+ 2 n
| {z }
t2
  
n+1 1
= densité de la loi Γ 2
,2 n
+1 à une constante près
− n+1
Γ n+1
 Z  2
2 t 2
= √ h(t) + 1 dt.
Γ n2

nπ R n

Γ( n+1
− n+1
2 )

t2 2
On trouve bien que T a la densité √
nπΓ( n
1+ n .
2)

Exercice 4. Soit X = (X1 , X2 , X3 ) un vecteur gaussien centré de matrice de covariance


 
3 1 0
Γ= 1  2 0
0 0 1

3
1. Que peut-on dire de X3 et de (X1 , X2 ) ?
2. Quelle est la loi de (X1 , X2 ) ?
3. Montrer que pour tout a ∈ R le vecteur (X2 , X2 + aX1 ) est un vecteur gaussien.
4. En choisissant a de sorte que X2 et X2 + aX1 soient indépendants, calculer E[X1 |X2 ].
Solution. 1. On voit que pour i = 1 et i = 2 on a Cov(X3 Xi ) = 0. Donc X3 est indépendant
du vecteur gaussien (X1 , X2 ).
2. On va montrer
 que (X1 , X2 ) est un vecteur gaussien centré, de matrice de covariance
3 1
Γ12 = . On calcul la densité de (X1 , X2 ) par la formule
1 2
Z
1 1 −1
f(X1 ,X2 ) (x1 , x2 ) = p e− 2 (xΓ x) dx3
3/2 |Γ12 |
R (2π)
Z
1 1 1 −1
= p √ e− 2 (xΓ x) dx3 ,
2π |Γ12 | R 2π
 −1 
Γ12 0
puisque |Γ| = |Γ12 |. On a de plus Γ−1 = donc
0 1
Z
1 − 12 ((x1 ,x2 )Γ−1 (x1 ,x2 )t ) 1 1 2
f(X1 ,X2 ) (x1 , x2 ) = p e 12 √ e− 2 |x3 | dx3
2π |Γ12 | R 2π
1 1 −1 t
= p e− 2 ((x1 ,x2 )Γ12 (x1 ,x2 ) ) .
2π |Γ12 |
 
0 1
3. On a (X2 , X2 + aX1 )t = A(X1 , X2 )t avec A = . Donc (X2 , X2 + aX1 ) est un
a 1
vecteur gaussien centré de matrice AΓ12 At .
4. Comme le vecteur (X2 , X2 +aX1 ) est gaussien (centré), X2 et X2 +aX1 sont indépendants
si et seulement si Cov(X2 , X2 + aX1 ) = 0. Or

Cov(X2 , X2 + aX1 ) = Var(X2 ) + aCov(X2 , X1 ) = 2 + a.

En prenant a = −2, on en déduit que X2 − 2X1 et X2 sont indépendants.


Pour calculer E [X1 |X2 ], l’idée est de choisir α, β pour avoir X1 = α(X2 − 2X1 ) + βX2 :
en écrivant X1 = − 21 (X2 − 2X1 ) + 21 X2 , on obtient donc :
 
1 1 1 1 1
E [X1 |X2 ] = − E [X2 − 2X1 |X2 ] + E X2 |X2 = − E [X2 − 2X1 ] + X2 = X2 .
2 2 2 2 2

Exercice 5. Soient X, Y, Z trois variables aléatoires indépendantes, de même loi N (0, 1). Mon-
trer que la variable aléatoire (X − Y )2 + (X − Z)2 + (Y − Z)2 est indépendante de la variable
aléatoire X + Y + Z.
Solution. Comme X, Y, Z sont i.i.d. de loi normale standard, le vecteur (X, Y, Z) est gaussien
centrée de matrice de variance l’identité (produit des densités). On a (X, Y, Z) ∼ N3 (0, I3 ).
Considérons le vecteur
   
X −Y   1 −1 0
 X −Z  X 1 0 −1
V :=   = A Y  , avec A = 0 1 −1 .
 
 Y −Z 
Z
X +Y +Z 1 2 3

4
Donc, V est vecteur gaussien en tant que transformation linéaire d’un vecteur gaussien. Sa
matrice de variance-covariance est donnée par
 
     2 1 −1 0
X X  1 2 1 0
Var(U) = Var A  Y  = AVar  Y  AT = AAT =  −1 1 2 0 .

Z Z
0 0 0 3
 
X −Y
Les covariances nulles implique l’indépendance du sous-vecteur W := X − Z  de la variable
Y −Z
2 2 2 2
X + Y + Z. Or, (X − Y ) + (X − Z) + (Y − Z) = kWk est fonction mesurable de W, donc
l’indépendance de X + Y + Z est préservée.
Exercice 6 (Théorème de Cochran). Soit Z un vecteur gaussien de Rn d’espérance nulle et de
matrice de covariance In où In est la matrice identité de dimension n. Supposons que Rn s’écrit
comme la somme directe de J sous-espaces vectoriels orthogonaux V1 , · · · , VJ de dimensions
respectives p1 , · · · , pJ . On désigne par ΠVj la matrice de projection orthogonale sur Vj .
1. Montrer que ΠV1 Z, · · · , ΠVk Z sont des vecteurs aléatoires indépendants. Déterminer leurs
lois.
2. Montrer que kΠVj Zk2 suit la loi χ2 (pj ) pour tout 1 ≤ j ≤ J.
3. Application. Soient Xi , i = 1, . . . , n des variables aléatoires indépendantes
P de loi normale
N (µ, σ) avec µ ∈ R et σ > 0. On pose X̄ = n1 ni=1 Xi et Sn2 = n1 ni=1 (Xi − X̄n )2 .
P
Déterminer la loi jointe du vecteur aléatoire (X̄n , Sn2 ).
Solution. 1. Formons d’abord une grande matrice A avec toutes les matrices de projec-
tions :
 
ΠV1
 ΠV 
 2
A =  . .
 .. 
ΠV1
 
Π V1 Z
Puisque Z est un vecteur gaussien,  · · ·  = AZ l’est aussi comme transformation
ΠVJ Z
affine d’un vecteur gaussien. Sa moyenne est E [AZ] = AE [Z] = 0 et sa matrice de
variance-covariance est Var(AZ) = AVar(Z)AT = AAT .
Rappel sur les projecteurs orthogonaux : on a pour tout j, ΠVj = ΠTVj (symétrie) et
Π2Vj = ΠVj , et par orthogonalité des sous-espaces vectoriels Vj on a ΠVj ΠVl = 0 pour tout
j 6= l.
Donc, la matrice de variance-covariance de AZ est diagonale par block :
 
ΠV1 0 ··· 0
.. 
 0 ΠV2 . . .

. 
Var(AZ) =  .
.
.
 . . . .


0 · · · · · · ΠVk

La structure de la matrice Var(AZ) implique que les sous-vecteurs ΠVj Z sont des vecteurs
gaussiens indépendants. Et ΠVj Z est de moyenne nulle et Var(ΠVj Z) = ΠVj pour tout j.
Donc, ΠVj Z ∼ Npj (0, ΠVj ).

5
2. Comme ΠVj est symétrique, il existe une matrice Γ orthogonale telle que ΠVj = ΓΛΓT ,
où Λ = Diag(λ1 , . . . , λp ) est la matrice diagonale des valeurs propres de ΠVj . Alors,

k
X
kΠVj Zk2 = Z T ΠTVj ΠVj Z = Z T ΠVj Z = (Z T Γ)Λ(ΓT Z) = U T ΛU = λi Ui2 ,
i=1

où U = ΓT Z = (U1 , . . . , Un )T . En utilisant l’orthogonalité de Γ, on vérifie que U est un


vecteur normal de loi Nk (0, Ik ). En effet,

E [U ] = ΓT E [Z] = 0 et Var(U ) = ΓT Var(Z)Γ = ΓT Γ = Ik .

Or, ΠVj est un projecteur orthogonal, donc λj ∈ {0, 1} et Card{j : λj = 1} =


Rang(ΠVj ) = pj . Donc,
X
kΠVj Zk2 = Ui2 ∼ χ2pj .
i:λi =1

3. Le vecteur aléatoire X = (X1 , . . . , Xn )T est de loi normale de moyenne (µ, . . . , µ)T et


de matrice de variance σ 2 In . Posons Z = X−µ σ . Alors Z est un vecteur gaussien centré
de variance
  n I . Notons V 1 = Vect(1 n ) le sous-espace vectoriel engendré par le vecteur
1
 .. 
1n =  .  ∈ Rn . La projection orthogonale ΠV1 Z de Z sur V1 est donnée par
1

1 1 1
h √ 1n , Zi √ 1n = 1Tn Z1n = Z̄n 1n ,
n n n

où Z̄n = X̄n − µ. On en déduit que la projection orthogonale de Z sur V2 = V1⊥ est
donnée par Z − ΠV1 Z = Z − Z̄n 1n . Par le théorème de Cochran, Z̄n 1n et Z − Z̄n 1n sont
2
des vecteurs gaussiens indépendants. De plus, kZ − Z̄n 1n k2 = nS σ2
n
suit la loi de khi-deux
dont le nombre de degrés de liberté est dim(V2 ) = n− dim(V1 ) = n − 1. On en déduit
2
l’indépendance de X̄n et Sn2 avec X̄n ∼ N (µ, σ 2 ) et nS
σ2
n
∼ χ2n−1 .

Exercice 7 (Tomber dans le cercle). Soit X, Y, Z trois vecteurs aléatoires indépendants à valeurs
dans R2 de loi gaussienne standard. Montrer que la probabilité que Z tombe dans le cercle de
diamètre Y − X qui passe par X et Y vaut 1/4.

Solution. L’événement considéré se produit si et seulement si




Z − (X + Y ) 1
≤ kX − Y k,
2 2

en notant k · k la norme euclidienne standard sur R2 . En élevant au carré et en développant, on


trouve la condition

(X1 + Y1 ) 2 (X2 + Y2 ) 2 X1 − Y1 2 X2 − Y2 2
       
Z1 − + Z2 − ≤ + .
2 2 2 2

Posons U1 = Z1 − (X1 +Y
2
1)
, U2 = Z2 − (X2 +Y2
2)
, U3 = X1 −Y
2
1
et U4 = X2 −Y
2
2
et déterminons la
loi du vecteur U = (U1 , U2 , U3 , U4 ). Tout d’abord U est un vecteur Gaussien. En effet, on peut

6
écrire U = AV , où V = (X1 , X2 , Y1 , Y2 , Z1 , Z2 ) est un vecteur Gaussien standard sur R6 et A
une matrice de taille 4 × 6 donnée par
 1
− 2 0 − 12

0 1 0
 0 −1 0 − 21 0 1
A= 2 .
 1 0 − 12 0 0 0
2
1
0 2 0 − 12 0 0

On a E [U ] = AE [V ] = 0 et pour la matrice de variance


3 
2 0 0 0
0 3
0 0
Var(U ) = AVar(V )AT = AAT = 
0
2
1
.
0 2 0
1
0 0 0 2

La structure diagonale de Var(U ) implique que les composantes du vecteur U sont indépendantes.
Par ailleurs, U1 et U2 sont de loi normale N (0, 32 ) et U3 et U4 sont de loi normale N (0, 21 ).
Pour résumer, on a
p p √ √
U1 = 3/2ε1 , U2 = 3/2ε2 , U3 = (1/ 2)ε3 , U4 = (1/ 2)ε4 ,

avec (ε1 , ε2 , ε3 , ε4 ) un vecteur gaussien standard de R4 . La probabilité p recherchée vaut donc


 
(X + Y ) 1
≤ kX − Y k = P 3(ε21 + ε22 ) ≤ ε23 + ε24 .

p := P Z −
2 2

Par la définition de la loi du khi-deux, les variables alétaoires R12 := ε21 + ε22 et R22 := ε23 + ε24
suivent la loi χ22 = Γ( 22 , 21 ) = Exp( 21 ). Par conséquent,
Z +∞ Z +∞ Z +∞
1 1 1
p= 13r1 ≤r2 e−r1 /2 e−r2 /2 dr1 dr2 = e−2r1 dr1 = .
4 0 0 2 0 4

Vous aimerez peut-être aussi