0% ont trouvé ce document utile (0 vote)
27 vues33 pages

Chapitre Proba 5

Le document traite des vecteurs aléatoires, en se concentrant sur les propriétés d'indépendance des variables aléatoires (v.a) et leurs implications. Il présente des propositions et des exemples concernant l'indépendance de v.a discrètes et continues, ainsi que des résultats sur la somme de v.a. Le document aborde également les vecteurs gaussiens et leurs caractéristiques, notamment les conditions d'indépendance et les fonctions de répartition associées.

Transféré par

Malek Chourabi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
27 vues33 pages

Chapitre Proba 5

Le document traite des vecteurs aléatoires, en se concentrant sur les propriétés d'indépendance des variables aléatoires (v.a) et leurs implications. Il présente des propositions et des exemples concernant l'indépendance de v.a discrètes et continues, ainsi que des résultats sur la somme de v.a. Le document aborde également les vecteurs gaussiens et leurs caractéristiques, notamment les conditions d'indépendance et les fonctions de répartition associées.

Transféré par

Malek Chourabi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Vecteurs aléatoires II

Skander HACHICHA

[Link]@[Link]

Université de Tunis El Manar


Ecole nationale d’ingénieurs de Tunis

Skander HACHICHA Vecteurs aléatoires II 1 / 33 1 / 33


V.a indépendantes

Définition
Les v.a X1 , · · · , Xn à valeurs dans Rd1 , · · · , Rdn sont dites
indépendantes si pour tout A1 ∈ B(Rd1 ), · · · , An ∈ B(Rdn )
n
Y
P(X1 ∈ A1 , · · · , Xn ∈ An ) = P(Xi ∈ Ai )
i=1

Proposition
Soient X1 , · · · , Xn n v.a réelles indépendantes. Soient h1 , · · · , hn ; n
fonctions réelles mesurables. Alors les v.a réelles

h1 (X1 ), · · · , hn (Xn )

sont indépendantes.

Skander HACHICHA Vecteurs aléatoires II 2 / 33 2 / 33


V.a indépendantes

Proposition
Soient X1 , · · · , Xn n v.a réelles. Alors X1 , · · · , Xn sont
indépendantes ssi pour tout (x1 , · · · , xn ) ∈ Rn
n
Y
F(X1 ,··· ,Xn ) (x1 , · · · , xn ) = FXi (xi )
i=1

Skander HACHICHA Vecteurs aléatoires II 3 / 33 3 / 33


Indépendance de v.a discrètes

Proposition
Soient X1 , · · · , Xn n v.a réelles discrètes. Les v.a X1 , · · · , Xn sont
indépendantes si pour tout (x1 , · · · , xn ) ∈ Rn :
n
Y
P(X1 = x1 , · · · , Xn = xn ) = P(Xi = xi )
i=1

Exemple
On désigne par X1 et X2 le résultat de lancer de deux dés, on vérifier
facilement que X1 et X2 sont indépendantes.

Exercice
Soient A et B deux événements. Montrer que A et B sont
indépendantes ssi 1A et 1B sont des v.a.d indépendantes.

Skander HACHICHA Vecteurs aléatoires II 4 / 33 4 / 33


Indépendance de v.a discrètes

Exercice
On considère le lancer de deux dés à 6 faces. Soit X = (X1 , X2 ) le
couple de v.a.d. réprésentant le résultat du premier dé et du second
dé.
Calculer la loi de la somme des deux faces S = X1 + X2 . Calculer la
loi de max(X1 , X2 ) et du vecteur aléatoire
Y = (max(X1 , X2 ), min(X1 , X2 )).

Skander HACHICHA Vecteurs aléatoires II 5 / 33 5 / 33


Indépendance de v.a absolument continues

Proposition
Soit (X1 , · · · , Xn ) une v.a absolument continu à valeurs dans Rn .
Alors Les v.a X1 , · · · , Xn réelles sont indépendantes si pour tout
(x1 , · · · , xn ) ∈ Rn :
n
Y
f(X1 ,··· ,Xn ) (x1 , · · · , xn ) = fXi (xi )
i=1

Indépendance et espérance
Proposition
Soient X1 , · · · , Xn ; n v.a.réelles. X1 , · · · , Xn sont indépendantes ssi
pour toutes fonctions réelles mesurables bornées h1 , · · · , hn , on a
n
Y
E(h1 (X1 ) · · · hn (Xn )) = E(hi (Xi ))
i=1

Skander HACHICHA Vecteurs aléatoires II 6 / 33 6 / 33


Indépendance de v.a absolument continues

Conséquences
Soient X et Y deux v.a réelles indépendantes admettant un moment
d’ordre 2. Alors
1 cov(X, Y ) = ρ(X, Y ) = 0.
2 V(X + Y ) = V(X) + V(Y ).

Remarque
La réciproque est fausse : deux variables aléatoires peuvent être non
corrélées sans être indépendantes.

Skander HACHICHA Vecteurs aléatoires II 7 / 33 7 / 33


Indépendance de v.a absolument continues

Exemple
Soit X une variable aléatoire de loi uniforme sur {1, · · · , 6}. On pose
Y = 1{X∈{1,6}} . Montrer que cov(X, Y ) = 0, mais X et Y ne sont
pas indépendants.

Proposition
Soient X1 , · · · , Xn n v.a réelles. X1 , · · · , Xn sont indépendantes ssi
pour tout (s1 , · · · , sn ) ∈ Rn
n
Y
Φ(X1 ,··· ,Xn ) (s1 , · · · , sn ) = ΦXk (sk )
k=1

Skander HACHICHA Vecteurs aléatoires II 8 / 33 8 / 33


Somme de v.a réelles
Somme de v.a.r discrètes
Proposition
Soient X et Y deux v.a à valeurs entières. Soit Z = X + Y.
1 La loi de probabilité de Z est donnée par
X
P(Z = k) = P(X = i, Y = j)
i+j=k

k
X
= P(X = i, Y = k − i)
i=0
2 Si de plus X et Y sont indépendantes, alors
k
X
P(Z = k) = P(X = i)P(Y = k − i)
i=0

et Pour tout s ∈ [0, 1], GX+Y (s) = GX (s)GY (s)


Skander HACHICHA Vecteurs aléatoires II 9 / 33 9 / 33
Somme de v.a réelles
Shéma de Bernoulli et autres exemples
Définition
On appelle shéma de Bernoulli toute suite de variables réelles
discrètes {Xn , n ∈ N∗ } indépendantes et indentiquement distribuées
(i.i.d) telle que la loi de Xn est la loi de Bernouilli de paramètre p.

Remarque
1 Le shéma de Bernoulli {Xn , n ∈ N∗ } modélise un jeu infini de
pile ou face avec une pièce biaisé de parmètre p. La v.a.d Xn
modélise le résultat du n−ième lancer.
2 Si {Xn , n ∈ N∗ } le shéma de Bernoulli de parmètre p. Alors
Sn = ni=1 Xi est de loi Binomiale de paramètre (n, p).
P

3 Si {Xn , n ∈ N∗ } le shéma de Bernoulli de parmètre p.


Alors T = inf{n ≥ 1, Xn = 1} est de loi géométrique de
paramètre p.
Skander HACHICHA Vecteurs aléatoires II 10 / 33 10 / 33
Somme de v.a réelles

Shéma de Bernoulli et autres exemples


Remarque
1 La loi de Poisson apparait comme limite de la loi Binomiale de
paramètre (n, p) lorsque n → +∞ et np → λ et donc p → 0.

Exercice
Montrer que :
1 Si X = B(n, p), Y = B(m, p) et X et Y sont indépendantes
alors
X + Y = B(n + m, p).
2 Si X = P(λ1 ), Y = P(λ2 ) et X et Y sont indépendantes alors
X + Y = P(λ1 + λ2 ).

Skander HACHICHA Vecteurs aléatoires II 11 / 33 11 / 33


Somme de v.a réelles

Somme de v.a.r absolument continues


Proposition
Soient X et Y deux v.a réelles indépendantes de fonctions densités
fX et gY . Alors
1 La v.a X + Y admet pour densité la fonction hX+Y = fX ∗ gY
définie par R
+∞ R +∞
hX+Y (z) = −∞ fX (z − y)gY (y)dy = −∞ fX (x)gY (z − x)dx
2 Pour tout s ∈ R

ΦX+Y (s) = ΦX (s)ΦY (s)

Skander HACHICHA Vecteurs aléatoires II 12 / 33 12 / 33


Somme de v.a réelles
Somme de v.a.r absolument continues
Exemple
Soient X et Y deux v.a réelles indépendantes de lois respectivement
N (m1 , σ1 ) et N (m2 , σq
2 ). Alors la v.a somme X + Y est de loi
normale N (m1 + m2 , σ12 + σ22 ).

Exemple
Soient X et Y deux v.a.r indépendantes qui suivent une loi uniforme
sur [0, 2].
On pose Z = X + Y et T = X − Y
Déterminer les fonctions d.d.p fZ et fT .

1

 4 z, si 0 < z ≤ 2;
1
fZ (z) = fX ∗ fY (z) = − z), si 2 < z ≤ 4;
4 (4
 0,

sinon.

Skander HACHICHA Vecteurs aléatoires II 13 / 33 13 / 33


Vecteurs gaussiens

Définition
Une v.a (X1 , · · · , Xd ) à valeurs dans Rd est dite vecteur gaussien si
pour tout (a1 , · · · , ad ) ∈ Rd la v.a réelle di=1 ai Xi est de loi
P

normale.
Conséquence
Soit (X1 , · · · , Xd ) un vecteur gaussien. Alors chaque composante Xk
est une v.a réelle de loi normale.

Skander HACHICHA Vecteurs aléatoires II 14 / 33 14 / 33


Vecteurs gaussiens

Exemple

Soit X1 , · · · , Xd des v.a gaussiennes indépendantes. On supoose que


la loi de Xk est la loi gaussienne N (mk , σk ).
Alors le vecteur X = (X1 , · · · , Xd ) est un vecteur gaussien.
En effet, soit a = (a1 , · · · , ad ) ∈ Rd . On calcule la fonction
caractéristique de ha, Xi :

Pd d
Φha,Xi (u) = E[eiu ak Xk
E[eiuak Xk ] =
Y
k=1 ]=
k=1
d a 2 σ 2 u2
k k ha, ΣX aiu2
eiuak mk −
Y
2 = exp(iuha, mi − ),
k=1
2

Skander HACHICHA Vecteurs aléatoires II 15 / 33 15 / 33


Vecteurs gaussiens

Exemple
Suite
où m = (m1 , · · · , md ) et ΣX = Diag(σ12 , · · · , σd2 ) est une matrice
diagonale. On en déduit que la loi de ha, Xi est la loi gaussienne
N (ha, mi, ha, ΣX ai). Donc X est un vecteur gaussien.

Skander HACHICHA Vecteurs aléatoires II 16 / 33 16 / 33


Vecteurs gaussiens

Théorème
Soit X = (X1 , · · · , Xd ) une v.a à valeurs dans Rd d’espérance
m = (m1 , · · · , md ) et de matrice de covariance ΣX .
Alors X est un vecteur gaussien ssi sa fonction caractéristique est
donnée par
1
ΦX (s1 , · · · , sd ) = eihs,mi− 2 hs,ΣX si
   
s1 m1
pour tout s =  .  où m =  . 
   
sd md

Skander HACHICHA Vecteurs aléatoires II 17 / 33 17 / 33


Vecteurs gaussiens

Proposition
Soit (X1 , · · · , Xd ) un vecteur gaussien à valeurs dans Rd . Les
composantes X1 , · · · , Xd sont indépendantes ssi la matrice de
covariance ΣX est diagonale.

Démonstration
Qd
On montre que Φ(X1 ,··· ,Xd ) (s1 , · · · , sd ) = i=1 ΦXi (si )

Remarque
1 Soit (X, Y ) un vecteur gaussien. Alors, on a :
les v.a X et Y sont indépendantes ⇔ Cov(X, Y ) = 0.
2 Soient X et Y deux v.a réelles de loi normales. On peut avoir
Cov(X, Y ) = 0 sans que les v.a X et Y soient indépendantes.

Skander HACHICHA Vecteurs aléatoires II 18 / 33 18 / 33


Vecteurs gaussiens

Exemple
Soit X une variable aléatoire réelle de loi N (0, 1). Soit ε une
variable aléatoire discrète indépendante de X et telle que
P(ε = 1) = P(ε = −1) = 21 . On pose Y = εX.
1) Déterminer la fonction de répartition de Y en fonction de FX . En
déduire la loi de Y.
2) Calculer ρ(X, Y ).
3) Soit (a, b) ∈ R2 tel que 0 < a < b.
(a) Calculer E[X 2 Y 2 ] et E[X 2 ]E[Y 2 ]. En conclure que X et Y ne
sont pas indépendantes. Le vecteur (X, Y ) est-il gaussien ?
(b)Calculer P(X ∈ [−a, a]) en fonction de FX (a).
(c) Calculer P(X ∈ [−a, a], Y ∈ [−b, b]) et
P(X ∈ [−a, a])P(Y ∈ [−b, b]). Vérifier encore les v.a.r. X et Y ne
sont pas indépendantes ?
(c) Calculer P(X = Y ).

Skander HACHICHA Vecteurs aléatoires II 19 / 33 19 / 33


Vecteurs gaussiens

Proposition
Soit X = (X1 , · · · , Xd ) un vecteur gaussien à valeurs dans Rd
d’espérancem = (m1 , · · · , md ). X admet une densité sur Rd ssi sa
matrice de covariance ΣX est inversible. Dans ce cas, on a :
1 −1
1
fX (x1 , · · · , xd ) = d√ e− 2 h(x−m),ΣX (x−m)i
  (2Π) 2 det ΣX 

m1 x1
où m =  .  et x =  . 
   
md xd

Skander HACHICHA Vecteurs aléatoires II 20 / 33 20 / 33


Espérance conditionnelle

Cas de v.a réelle discrète


Définition
Soient X une v.a discrète et Y une v.a quelconque intégrable. Soit
x ∈ X(Ω) tel que
P(X = x) > 0. On appelle espérance conditionnelle de Y sachant
[X = x].
E(Y 1{X=x} )
E(Y /X = x) = .
P(X = x)

Skander HACHICHA Vecteurs aléatoires II 21 / 33 21 / 33


Espérance conditionnelle

Cas de v.a réelle discrète


Définition
Soient X et Y 2 v.a rélles discrètes et x ∈ X(Ω) tel que
P(X = x) > 0. On appelle loi conditionnelle de Y sanchant
[X = x], la mesure de probabilité

P(X = x, Y = y) pxy
PY /X=x ({y}) = P(Y = y/X = x) = = .
P(X = x) px

On définit de même les lois conditionnelles de X sachant [Y = y].

Skander HACHICHA Vecteurs aléatoires II 22 / 33 22 / 33


Espérance conditionnelle
Cas de v.a réelle discrète
On suppose que Y admet une espérance finie
( y∈Y (Ω) |y|py < +∞). Par suite pour x ∈ X(Ω) fixé, la série
P
P pxy
y∈Y (Ω) px y, est aussi absolument convergente.

Remarque
P pxy
y∈Y (Ω) px εy
est une mesure de probabilité sur Y (Ω).
p
E(Y /X = x) = y∈Y (Ω) y pxy
P
x

Définition
On suppose que Y admet un moment d’ordre 1. L’éspérence
conditionnelle de Y sachant X est la v.a réelle définie par
E(Y /X)(ω) = h(X(ω))
où h est la fonction définie par
h(x) = E(Y /X = x) pour tout x ∈ X(Ω).

Skander HACHICHA Vecteurs aléatoires II 23 / 33 23 / 33


Espérance conditionnelle

Cas de v.a réelle discrète


Attention
E(Y /X = x) est un nombre réel et E(Y /X) est une v.a réelle et
E(Y /X)(ω) dépend de ω car la valeur de X(ω) dépend de ω.
Remarque
E(Y /X)(Ω) = {E(Y /X = x) / x ∈ X(Ω)}

Exercice
Soient A et B deux événements tq 0 < P(B) < 1. Calculer la loi de
1A sachant 1B . Caculer E(1A /1B ).

Skander HACHICHA Vecteurs aléatoires II 24 / 33 24 / 33


Espérance conditionnelle

Cas de v.a réelle discrète


Proposition
Soit X une v.a discrète et Y une v.a quelconque.
1 Soit g une fonction mesurable tq la v.a g(X, Y ) est intégrable
alors on a
E[E(g(X, Y )/X)] = E(g(X, Y ))
en particulier E[E(Y /X)] = E(Y )
2 Si X et Y sont indépendantes, alors pour toute fonction
mesurable u tq u(Y ) est intégrable, on a :

E(u(Y )/X) = E(u(Y ))

Skander HACHICHA Vecteurs aléatoires II 25 / 33 25 / 33


Espérance conditionnelle

Cas de v.a réelle discrète


Proposition
Suite
1 Pour toute fonction mesurable u telle que u(X) est intégrable,
on a :
E(u(X)/X) = u(X)
2 Soit u une fonction mesurable telle que u(Y ) est intégrable et
soit v une fonction réelle mesurable bornée alors on a :

E(v(X)u(Y )/X) = v(X)E(u(Y )/X)

Skander HACHICHA Vecteurs aléatoires II 26 / 33 26 / 33


Espérance conditionnelle

Cas de v.a réelle discrète


Démonstration
E(g(X,Y )1
{X=x} )
1 On pose h(x) = E(g(X, Y )/X = x) = P(X=x)
E[E(g(X, Y )/X)] = E(h(X)) = x∈X(Ω) h(x)P(X = x) =
P
P
x∈X(Ω) E(g(x, Y )1{X=x} ) = E( x∈X(Ω) g(x, Y )1{X=x} ) =
P

E(g(X, Y )).
E(u(Y )1
{X=x} )
2 h(x) = P(X=x) comme X et Y sont indépendantes alors
h(x) = E(u(Y ))
E(u(X)1{X=x} ) E(u(x)1{X=x} ) E(1{X=x} )
3 h(x) = P(X=x) = P(X=x) = u(x) P(X=x) =
u(x)
E(v(X)u(Y )1{X=x} ) E(v(x)u(Y )1{X=x} )
4 h(x) = P(X=x) = P(X=x) =
E(u(Y )1{X=x} )
v(x) P(X=x) = v(x)E(u(Y )/X = x)

Skander HACHICHA Vecteurs aléatoires II 27 / 33 27 / 33


Espérance conditionnelle
Cas de v.a réelle absolument continues
Soit (X, Y ) un couple de v.a réelles de densité f(X,Y ) et de densité
marginales fX et fY .
Définition
On appelle densité de Y conditionnelle à [X = x], la fonction
fY /X=x (.) définie par :

f(X,Y ) (x,y)
(
fY /X=x (y) = fX (x) , si fX (x) > 0;
0, sinon.

De même, on appelle densité de X conditionnelle à [Y = y], la


fonction fX/Y =y (.) définie par : fY /X=x (.) définie par :

f(X,Y ) (x,y)
(
fX/Y =y (x) = fY (y) , si fY (y) > 0;
0, sinon.

Skander HACHICHA Vecteurs aléatoires II 28 / 33 28 / 33


Espérance conditionnelle
Cas de v.a réelle absolument continues
Remarque
Si X et Y sont indépendantes, alors pour tout x tq fX (x) > 0, on a :

fY /X=x (y) = fY (y)

Convention : R
On pose P(Y ∈ A/X = x) = A fY /X=x (y)dy
Espérance conditionnelle :
Soit (X, Y ) une v.a et soit g : R2 → R une fonction mesurable réelle
telle
R
que g(X, Y ) est intégrable
( |g(x, y)|f(X,Y ) (x, y)dxdy < +∞).
Définition
On appelle espérancede g(X, Y ) conditionnelle sachant [X = x] le
réel Z
E(g(X, Y )/X = x) = g(x, y)fY /X=x (y)dy
R
Skander HACHICHA Vecteurs aléatoires II 29 / 33 29 / 33
Espérance conditionnelle

Cas de v.a réelle absolument continues


Remarque
R
E(Y /X = x) = R yfY /X=x (y)dy elle peut s’intrépreter comme
l’espérancede Y par rapport à la loi de probabilité de densité
fY /X=x .

Définition
On appelle espérancede g(X, Y ) sachant X la v.a réelle définie par :

E(g(X, Y )/X)(ω) = h(X(ω))

où h : R → R, x 7→ h(x) = E(g(X, Y )/X = x)

Skander HACHICHA Vecteurs aléatoires II 30 / 33 30 / 33


Espérance conditionnelle

Cas de v.a réelle absolument continues


Exercice
On considére (X, Y ) un vecteur aléatoire à valeurs dans R2 ,
continue et de densité f(X,Y ) (x, y) = λx e−λx 1{0<y<x} .
Déterminer la loi conditionnelle de Y sachant X.
Soit ϕ : une fonction réelle mesurable bornée. Caculer
E[ϕ(X, Y )/X].

Skander HACHICHA Vecteurs aléatoires II 31 / 33 31 / 33


Espérance conditionnelle

Cas de v.a réelle absolument continues


Indication :
on a la densité de X est donnée par
fX (x) = R f(X,Y ) (x, y)dy = λe−λx 1{0<x} , on en déduit que, pour
R

x > 0, fY /X=x (y) = x1 1{0<y<x} . c’est la densité de la loi uniforme


sur [0, x].
On dit que conditionnellement à X, Y suit une loi uniforme sur
[0, X]. Comme ϕ est bornée, ϕ(Y ) est intégrable et on a :

1
Z X
E(ϕ(Y )/X) = ϕ(y)dy
X 0

Skander HACHICHA Vecteurs aléatoires II 32 / 33 32 / 33


Merci

Skander HACHICHA Vecteurs aléatoires II 33 / 33 33 / 33

Vous aimerez peut-être aussi