Probaavancee 2
Probaavancee 2
A. Elouaflin11
1
e-mail: elabouo@[Link]
2
Chapter 1
Définition 1.1.1. Une probabilité IP sur Ω = {ω1 , ω2 , ..., ωn } est une famille (p1 , p2 , ..., pn ) de réels
vérifiants
n
X
∀ 1 ≤ k ≤ n, 0 ≤ pk ≤ 1, et pk = 1
k=1
X
On attribue à tout événement A ⊂ Ω, le nombre IP(A) = pk qui est appelé probabilité de
k: ωk ∈A
l’événement A.
Exemple 1.1.2. Jet de deux dés à six faces: Ω = {(i, j) : 1 ≤ i, j ≤ 6} où i désigne la valeur de la
face supérieure du premier dé et j celle du second. Les dés ne sont pas pipés. On munit Ω de la
1
pondération suivantes: ∀ 1 ≤ i, j ≤ 6, p(i,j) = .
36
Soit A l’événement: les valeurs des deus dés sont identiques. On a A = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}
6
X 6 1
et IP(A) = p(i,i) = = .
36 6
i=1
On note S la somme des deux dés et {S = k} l’événement {(i, j) : S(i, j) = k}. On a S(i, j) = i + j.
Calculer IP(S = k) pour k = 2, ..., 12.
Rappels de dénombrement
IP(A∩B)
IP(B) si IP(B) > 0
IP(A|B) =
IP(A) sinon
Exercise 1.2.2. 1. Dans une famille qui comporte deux enfants, l’un est une fille. On cherche la
probabilité que l’autre soit un garçon.
2. On suppose maintenant que l’aı̂né des enfants est une fille. Quelle est la probabilité que l’autre
soit un garçon.
Exercise 1.2.3. Parmi 10 pièces mécaniques, 4 sont défectueuses. on prend successivement deux
pièces au hasard dans le lot sans remise. quelle est la probabilité pour que les deux pièces soient
correctes.
Remarque 1.2.4. De façon naturelle, on peut utiliser la définition sous la forme IP(A ∩ B) =
IP(A|B)IP(B). Ce qui se généralise en IP(A1 ∩A2 ∩...∩Am ) = IP(Am |A1 ∩A2 ∩...∩Am−1 ).IP(Am−1 |A1 ∩
A2 ∩ ... ∩ Am−2 )....IP(A2 |A1 )IP(A1 )
Proposition 1.2.5. ( Formule de Bayes). Soient B1 , ..., Bm une partition de Ω ( i.e des sous-
ensembles disjoints de Ω dont la réunion est ω) et A ⊂ Ω tel que IP(A) > 0. Alors pour tout
1 ≤ i ≤ m,
IP(A|Bi )IP(Bi )
IP(Bi |A) = Pm
j=1 IP(A|Bj )IP(Bj )
Exercise 1.2.6. Pour dépister une maladie, on applique un test sanguin. Si le patient est atteint,
le test donne un résultat positif dans 99 pour cent des cas. Mais le test est également positif pour
2 pour cent des personnes en bonne santé. La proportion de personnes malades dan sl apopulation
soumise au test est de 10−3 . calculer la probabilité pour qu’un patient soit en bonne santé sachant
que le résultat de son test est positif.
1.2.2 Indépendance
Définition 1.2.7. Soit Ω muni d’une probabilité IP. Deux événements A et B sont dits indépendants
si
IP(A ∩ B) = IP(A)IP(B)
Notations
S
Soit Ω un ensemble, ATn ⊂ Ω et f : Ω −→ IR. On écrit An ↑ A si An ⊂ An+1 et A = An ; An ↓ A
si An ⊃ An+1 et A = An ; fn ↑ f si fn ≤ fn+1 et f = sup fn ; fn ↓ f si fn ≥ fn+1 et f = inf fn ;
Enumération
On appelle énumération de I toute bijection φ de IN sur I. Soient (ai , i ∈ I) une famille de nombres
réels ou complexes et φ une énumération de I. On pose
Snφ = aφ(0) + aφ(1) + ... + aφ(n)
8 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
Famille sommable positive
¯ +.
On suppose que pour tout i ∈ I, ai ≥ 0. Alors la suite Snφ est croissante et S φ = lim ↑ Snφ ∈ IR
Si ψ est une autre énumération de I, on a, pour n fixé et m assez frand,
Ainsi Snφ ≤ Sm
ψ
≤ S ψ . D’où S φ ≤ S ψ . En changeant le rôle de φ et ψ, on obtient également
S ≤ S et finalement S φ = S ψ .
ψ φ
Théorème 2.2.1. Soit (ai , i ∈ I) une famille de nombre réels positifs. Alors, pour toute énumération
φ deXI, la suite Snφ converge en croissant vers un nombre S ∈ IR ¯ + indépendant de φ. On note
S= ai . Si S < +∞, la famille est dite sommable.
i∈I
X X
Proposition 2.2.2. (i) Si In ↑ I, In fini; ai ↑ ai .
i∈In i∈I
P X
(ii) Pour tout A < i∈I ai , il existe J ⊂ I, J fini tel que ai > A.
X X i∈J
(iii) Si 0 ≤ ai ≤ bi ; ai ≤ bi .
i∈I i∈I X X X
(iv) Pour α ≥ 0, β ≥ 0, ai ≥ 0, bi ≥ 0, on a (αai + βbi ) = α ai + β bi
i∈I i∈I i∈I
2.2.3 Définition
Définition 2.2.8. On appelle variable aléatoire discrète une application X : Ω −→ F où F est un
ensemble dénombrable (F est égal IN ou IZ ou à une partie de IZ. Pour x ∈ F , on note {X = x}
l’éveément {ω : X(ω) = x}. La famille des nombres (IP(X = x))x∈F s’appelle la loi de X.
Exemple 2.2.9. J Dans le cas du jet de dés, la somme S des deux dés est une variable aléatoire
discrète à valeurs dans F = {2, 3, 4, ..., 12}}.
J Soit A ⊂ Ω un événement. Sa fonction indicatrice IA définie par
1 si ω ∈ A
∀ω ∈ Ω, IA (ω) =
0 sinon
est une variable aléatoire discrète de loi:
IP(IA = 1) = IP(A) et IP(IA = 0) = 1 − IP(A).
2.2.4 Indépendance
Définition 2.2.10. J Deux variables aléatoires discrètes X et Y à valeurs respectivement dans F
et G sont dits indépendantes si
∀x ∈ F, ∀y ∈ G, IP(X = x, Y = y) = IP(X = x).IP(Y = y).
J n variables aléatoires discrètes X1 , X2 , ...., Xn à valeurs respectivement dans F1 , F2 , ..., Fn sont
dits indépendantes si
Yn
∀x1 ∈ F1 , ..., ∀xn ∈ Fn , IP(X1 = x1 , ..., Xn = xn ) = IP(X = xi ).
i=1
J une famille quelconque de variables aléatoires discrètes est dite indépendante si tout sous-
famille finie est indépendante.
Exemple 2.2.11. Jet de 2 dés: Ω = {(i, j);q uad1 ≤ i, j ≤ 6} muni de la probabilité uniforme.
Soit X1 la valeur du premier dé et X2 celle du second. On a X1 (i, j) = i et X2 (i, j) = j et
1
∀1 ≤ i ≤ 6 IP(X1 = i) = IP(X2 = i) =
6
Comme
1 11
∀1 ≤ i, j ≤ 6 IP(X1 = i, X2 = j) = = = IP(X1 = i)IP(X2 = j),
36 66
les variables X1 et X2 sont indépendantes.
Remarque 2.2.12. J Si les variables aléatoires discrètes X1 , ..., Xn sont indépendantes, pour 1 ≤
d < n, les deux variables aléatoires discrètes (X1 , ..., Xd ) et (Xd+1 , ..., Xn ) sont indépendantes.
J Ce résultat se généralise de l afaçon suivante: ∀m ∈ {1, ..., n−1}, ∀1 ≤ d1 < d2 < ... < dm < n, les
variables aléatoires discrètes (X1 , ..., Xd1 ), (Xd1 +1 , ..., Xd2 ) (Xdm −1 , ..., Xdm ) et (Xdm +1 , ..., Xn )
sont indépendantes.
10 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
2.2.5 Loi marginale
Soit X une variable aléatoire discrète à valeurs dans F et Y une variable aléatoire discrète à valeurs
dans G. Comme le produit de deux ensembles dénombrables est dénombrable, (X, Y ) est une une
variable aléatoire discrète à valeurs dans F × G. Mais la connaissance de l aloi de X et d el aloi
de Y ne suffit pas pour connaı̂tre la loi de (X, Y ). Il faut rajouter de l’information comme par
exemple le caractère indépendant pour obtenir la loi du couple.
Exemple 2.2.13. Si X suit une loi de Bernouli B(1/2). Alors, Y = 1 − X suit la même loi
de Bernoulli B(1/2). On note L(X) = L(Y ). En considérant les couples (X, X) et (X, Y ), les
premières coordonnées ont même loi que les secondes coordonnées. Mais
1
IP ((X, Y ) = (1, 0)) = IP(X = 1) = 6= 0 = IP ((X, X) = (1, 0))
2
En revanche, si l’on connaı̂t la loi du couple discrèt (X, Y ), on en déduit la loi de X et celle de
Y par la formule dite de loi marginale.
On somme sur les valeurs prises par la variable Y dont on souhaite se débarrasser.
[
Preuve. Il suffit de remarquer que {X = x} = {X = x, Y = y} est une réunion disjointe de
y∈G
famille dénombrable et d’utiliser la σ-additivité.
Preuve. Exercice
2.2. VARIABLES ALÉATOIRES DISCRÈTES 11
Théorème 2.2.18. Soit X : Ω −→ F ⊂ IR uneX variable aléatoire discrète et f : F −→ IR. Alors
la variable f (X) est intégrable si et seulment si |f (x)|IP(X = x) < +∞ et alors
x∈F
X
IE(f (X)) = f (x)IP(X = x)
x∈F
Proposition 2.2.19. Soient X et Y sont deux variables aléatoires discrètes à valeurs respective-
ment dans F et G.
1. Si X et Y sont indépendantes alors pour toutes fonctions f : F −→ IR et g : G −→ IR telles que
f (X) et g(Y ) sont intégrables, alors f (X)g(Y ) est intégrable et IE (f (X)g(Y )) = IE(f (X))IE(g(Y )).
2. Inversement, si pour toutes fonctions f : F −→ IR et g : G −→ IR bornées, IE (f (X)g(Y )) =
IE(f (X))IE(g(Y )), alors X et Y sont indépendantes.
Preuve. Exercice
Variance
Définition 2.2.20. Soit X : Ω −→ F ⊂ IR une variable aléatoire discrète à valeurs réelles. Soit
p ∈ IN∗ .
1. Si IE(|X|p ) < +∞, alors IE(|X|
X
p ) s’appelle le moment absolu d’ordre p de X et IE(X p ) le
Par indépendance des variables X1 , ..., Xn , on a pour i 6= j IE ((Xi − IE(Xi ))(Xj − IE(Xj ))) = 0.
La preuve est complète.
12 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
2.3 Lois usuelles
Loi binomiale
Soit n ∈ IN∗ , C’est la loi d’une variable aléatoire à valeurs dans {0, 1, ..., n} telle que
Elle est appelée loi binomiale de paramètre n, p et notée B(n, p). On écrit X ∼ B(n, p). En
particulier si X ∼ B(1, p), on dit que X est une variable aléatoire de Bernoulli.
n n
X X X (n − 1)!
IE(X) = kIP(X = k) = kCnk pk (1 − p)n−k = np pk−1 (1 − p)n−k
(k − 1)!(n − k)!
k≥0 k=0 k=0
n−1
X
i
= np Cn−1 pi (1 − p)n−1−i = np(p + (1 − p))n−1 = np
i=0
X n
X n
X
2 2
IE(X ) = k IP(X = k) = k(k − 1)Cnk pk (1 − p) n−k
+ kIP(X = k)
k≥0 k=2 k=1
n
X (n − 2)!
= n(n − 1)p2 pk−2 (1 − p)n−k + np
(k − 2)!(n − k)!
k=2
n−2
X
= n(n − 1)p2 i
Cn−2 pi (1 − p)n−2−i + np = n(n − 1)p2 + np.
i=0
Loi de Poisson
λk
IP(X = k) = e−λ , k ∈ IN; λ > 0.
k!
Elle est appelée loi de Poisson de paramètre λ et se note P(λ). On écrit X ∼ P(λ).
∞ ∞
X X λk X λk−1
IE(X) = kIP(X = k) = ke−λ = λeλ =λ
k! (k − 1)!
k≥0 k=0 k=0
∞ ∞
X X λk X
IE(X 2 ) = k 2 IP(X = k) = k(k − 1)e−λ + kIP(X = k)
k!
k≥0 k=2 k=0
∞
X λk−2
= λ2 e−λ = λ2 + λ
(k − 2)!
k=2
On a alors V ar(X) = λ2 + λ − λ2 = λ.
2.4. FONCTION GÉNÉRATRICE DES VARIABLES ALÉATOIRES ENTIÈRES 13
Loi géométrique
C’est la loi d’une variable aléatoire à valeurs dans IN telle que
Elle est appelée loi géométrique de paramètre p et se note G(p). On écrit X ∼ G(p). C’est la loi du
temps du premier succès dans une suite d’expériences aléatoires indépendantes où la probabilité de
succès est p.
∞ ∞
!0
X X X
IE(X) = kIP(X = k) = k(1 − p)k−1 p = p xk
k≥0 k=1 k=0 |(x=1−p)
0
1 1
= p =
1−x |(x=1−p) p
X ∞
X ∞
X
IE(X 2 ) = k 2 IP(X = k) = k(k − 1)(1 − p)k−1 p + kIP(X = k)
k≥0 k=2 k=0
∞
!00
X 1
= p(1 − p) xk +
p
k=0 |(x=1−p)
2 1 2 1 2(1 − p) 1
= p(1 − p) 3
+ = p(1 − p) 3 + = +
(1 − x) |(x=1−p) p p p p2 p
2(1 − p) 1 1 1−p
On a alors V ar(X) = + − 2 =
p2 p p p2
Proposition 2.4.4. i). IE(X) < +∞ si et seulement si gX est dérivable à gauche en 1, et dans ce
0 (1).
cas, on a IE(X) = gX
2
ii). IE(X ) < +∞ si et seulement si gX est deux fois dérivable à gauche en 1, et dans ce cas, on a
IE(X(X − 1)) = gX” (1).
Preuve. (i). On a
gX (s) − gX (1) X sk − 1 X X
= IP(X = k) = IP(X = k)(1+...+sk−1 ) ↑ kIP(X = k) quand s ↑ 1
s−1 s−1
k≥0 k≥0 k≥0
Proposition 2.4.5. Soient X et Y deux variables à valeurs dans IN indépendants. Alors pour tout
s ∈ [0, 1],
gX+Y (s) = gX (s)gY (s).
Exercise 2.4.6. Soit (Xi )i≥1 une suite de variables entières indépendantes et identiquement dis-
tribuées et N une variable aléatoire entière indépendante de la suite. On pose
X1 + ... + XN si N ∈ IN∗
S=
0 si N = 0
Exprimer gS (u) en fonction de gX1 (u) et gXN (u). En déduire la loi de S lorque N suit la loi
géométrique de paramètre p et les Xi la loi géométrique de paramètre q.
Proposition 2.5.4. On suppose que f (X, Y ) est intégrable. Pour toute fonction g : G −→ IR telle
que f (X, Y )g(Y ) est intégrable, la variable aléatoire IE (f (X, Y )|Y ) g(Y ) est intégrable et on a
IE [IE (f (X, Y )|Y ) g(Y )] = IE (f (X, Y )g(Y ))
Preuve.X Pour l’intégrabilité de IE (f (X, Y )|Y ) g(Y ), on remargque que ∀y ∈ G, |ψ(y)g(y)| ≤
|g(y)| |f (x, y)|IP(X = x|Y = y). Il vient
x∈F
X X X
|ψ(y)g(y)|IP(Y = y) ≤ |g(y)| |f (x, y)|IP(X = x|Y = y)IP(Y = y)
y∈G y∈G x∈F
X
= |g(y)||f (x, y)|IP(X = x, Y = y) = IE|(f (X, Y )||g(Y )| < +∞
x∈F,y∈G
En outre,
X
IE [IE (f (X, Y )|Y ) g(Y )] = g(y)ψ(y)IP(Y = y)
y∈G
!
X X
= g(y) f (x, y)IP(X = x|Y = y) IP(Y = y)
y∈G x∈F
X
= f (x, y)g(y)IP(X = x, Y = y) = IE (f (X, Y )g(Y ))
x∈F,y∈G
Corollaire 2.5.5. Si la variable f (X, Y ) est intégrable, alors l’espérance conditionnelle IE(f (X, Y )|Y )
est aussi intégrable et IE [IE(f (X, Y )|Y ] = IE(f (X, Y )). En outre, si f (X, Y ) est de carré intégrable,
IE(f (X, Y )|Y ) l’est aussi et V ar [IE(f (X, Y )|Y ] ≤ V ar(f (X, Y ))
Preuve. La pemière assertion est obtenue en faisant g ≡ 1 dans la proposition précédente.
Supposons X à présent que f (X, Y ) est intégrable. En utilisant l’ inégalité de Cauchy-Schwarz et
le fait que IP(X = x|Y = y) = 1, on obtient
x∈F
!2
X p p X
f (x, y) IP(X = x|Y = y) IP(X = x|Y = y) ≤ f 2 (x, y)IP(X = x|Y = y) × 1
x∈F x∈F
Donc IE(f (X, Y )|Y ≤)2 IE(f 2 (X, Y)|Y ). Comme IE(f 2 (X, Y
)|Y ) est intégrable et d’espérance égale
à IE(f (X, Y )), on déduit de la proposition 2.2.18 que IE(f (X, Y )|Y )2 intégrable et
2
IE IE(f (X, Y )|Y )2 − (IE [IE(f (X, Y )|Y )])2 ≤ IE(f 2 (X, Y )) − (IE [IE(f (X, Y )|Y )])2
Cela signifie que les trois termes sont soit simultanément finis et égaux soit simultanément égaux
à +∞. Z
I Si f est intégrable au sens où |f (x, y)|dxdy < +∞, alors l’égalité ci-dessus est vraie.
IR2
Exemple 3.1.2. Soit f : [0, +∞[−→ [0, +∞[
Z Z +∞ Z +∞ Z +∞ Z +∞
f (x + y) f (x + y) f (z)
dxdy = dy dx = dz dx
[0,+∞[×[0,+∞[ x+y 0 0 x+y 0 x z
Z +∞ Z +∞ Z +∞ Z +∞
f (z) f (z)
= I{z≥x} dz dx = I{z≥x} dx dz
0 0 z 0 z 0
Z +∞ Z z Z +∞
f (z)
= dx dz = f (z)dz
0 z 0 0
∂(ϕ−1 )i
−1
où Jacϕ (y) = Det ; 1 ≤ i, j ≤ d .
∂yj
x2 x2 +y 2
Exercise 3.1.3. Calculer I = IR e− 2 dx. Indication: calculer 2 I = IR e− 2 dxdy en utilisant
R R
un changement de variables.
18 CHAPTER 3. VARIABLES ALÉATOIRES À DENSITÉ
En général, dans les problèmes de probabilités, on connaı̂t O et ϕ et on souhaite transformer
une intégrale. Il faut faire attention aux difficultés suivanhtes:
(i) La fonction ϕ n’est pas injective sur le domaine O de départ (O = IR, ϕ(x) = x2 ). Il faut alors
essayer de découper O en sous-domaines sur lesquels ϕ est injective.
(ii) Lorsque ϕ est injective sur O, il faut bien raisonner par les conditions nécessaires et suffisantes
pour obtenir le domaine image O0 . Il ne faut surtout pa sse contenter de conditions nécessaires.
Exemple 3.1.4. Si O =]0, +∞[×]0, +∞[ et ϕ(x, y) = (x + y, x − y). Dire que O0 = ϕ(O) =
]0, +∞[×IR est faux.
Pour déterminer O0 , il faut déterminer ϕ−1 .
z+w
z =x+y x=
ϕ−1 (z, w) = (x, y) ⇔ (z, w) = ϕ(x, y) ⇔ ⇔ 2
z−w
w =x−y y= 2
z+w
0 −1 2 >0
(z, w) ∈ O ⇔ ϕ (z, w) ∈ O ⇔ z−w ⇔ z > |w|
2 >0
1
p(x) = I (x).
b − a [a,b]
(x − µ)2
1
p(x) = √ exp − IIR (x).
2πσ 2 2σ 2
Dans le cas où µ = 0 et σ 2 = 1, on dit que X suit la loi normale centrée réduite.
a 1
p(x) = I (x).
π x + a2 IR
2
Proposition 3.2.3. 1. L’espérance d’une variable aléatoire X qui possède une densité ne dépend
que de cette densité.
[Link]́arité: IE(X + λ Y ) = IE(X) + λIE(Y ).
3. Condition suffisante d’intégrabilité: Si IP(|X| ≤ Y ) = 1 et Y est intégrable, alors X l’est aussi.
4. Coissance: Si X et Y sont intégrables, IP(X ≥ Y ) = 1 =⇒ IE(X) ≥ IE(Y ).
Exercise 3.2.4. calculer l’espérance et la variance d’une variable uniforme sur [a, b]; d’une variable
exponentielle de paramètre λ > 0; d’une variable de Cauchy paramètre a > 0 et d’une variable
normale centrée réduite.
Il en résulte que FX croı̂t de 0 à 1 et est continue à droite. Elle a une limite à gauche en tout point
notée FX (x−). De plus on a
Résolution
Utilisons la mt́hode de la fonction muette. Pour toute fonction f : IR2 −→ IR bornée, calculons
IE[f (Z, W )] = IE[f (X + Y, X − Y )].
Soit ϕ : (x, y) ∈ IR2 7−→ (x + y, x − y) ∈ IR2 . La fonction g(x, y) = f ◦ ϕ(x, y) = f (x + y, x − y) est
un efonction bornée sur IR2 . On a donc
Z
IE[g(X, Y )] = 2
g(x, y)λ2 exp (−λ(x + y)) I{x≥0} I{y≥0} dxdy
Z IR
IE[f (X + Y, X − Y )] = f (x + y, x − y)λ2 exp (−λ(x + y)) I{x≥0} I{y≥0} dxdy
IR2
Z +∞ Z +∞
IE[f (Z, W )] = f (x + y, x − y)λ2 exp (−λ(x + y)) dxdy
0 0
3.3. VECTEURS ALÉATOIRES À DENSITÉ 21
La fonction ϕ est une bijection C1
ainsi que son inverse (x, y) = ϕ−1 (z, w) = ( z+w z−w
2 , 2 ) de
O =]0, +∞[×]0, +∞[ sur O = {(z, w) ∈ IR2 : z > |w|}. On a |Jacϕ−1 (z, w)| =
0 1 1
2 et dxdy = 2 dzdw.
Ainsi
z+w z−w
Z
2 1
IE[f (Z, W )] = f (z, w)λ exp −λ + dzdw
(z,w):z>|w| 2 2 2
λ2
Z
= f (z, w) exp (−λ z) I{(z,w):z>|w|} (z, w)dzdw
2
λ2
On conclut que la densité du couple (Z, W ) est exp (−λ z) I{(z,w):z>|w|} (z, w).
2
La densité marginale de Z est
λ2
Z
exp (−λ z) I{(z,w):z>|w|} (z, w)dw = I{z>0} (z)λ2 exp (−λ z)
IR 2
celle de W est
λ2
Z
λ
exp (−λ z) I{(z,w):z>|w|} (z, w)dz = I{z>0} (z) exp (−λ |w|)
IR 2 2
d d
Proposition Z 3.3.5. Soit X : Ω −→ IR qui possède la densité p(x) portée par un ouvert O de IR
au sens où p(x)dx = 1 et ϕ est une bijection de O sur O0 de classe C 1 ainsi qu eson inverse
O
ϕ−1 . Alor sle vecteur Y = ϕ(X) possède la densité
3.3.3 Inépendance
Définition 3.3.6. Les vecteurs aléatoires X1 : Ω −→ IRd1 , ..., Xn : Ω −→ IRdn qui possèdent
respectivement les densités p1 , ..., pn sont dits indépendants si (X1 , ..., Xn ) possède la densité produit
p1 (x) × p2 (x) × ... × pn (x).
(2.) Inversement, si pour toutes fonctions f1 : IRd1 −→ IR, ..., f1 : IRdn −→ IR bornées,
n
Y
IE (f (X1 ) × f2 (x)... × f (Xn )) = IE (f (Xi )), alors les vecteurs X1 , ..., Xn sont indépendants.
i=1
Remarque 3.3.8. Lorsque les vecteurs aléatoires X1 , ..., Xn sont indépendants, alors ∀m ∈ [[1, n]], ∀1 ≤
d1 < d2 < ... < dm ≤ n, les vecteurs (X1 , X2 , ..., Xd1 ), (Xd1 +1 , ...Xd2 ), ..., (Xdm−1 +1 , ...Xdm ) et
(Xdm +1 , ...Xn ) sont indépendants.
22 CHAPTER 3. VARIABLES ALÉATOIRES À DENSITÉ
3.3.4 Covariance
On rappelle que si Y et Z sont deux variables aléatoires de carré intégrable, leur produit Y Z est
intégrable vu que |Y Z| ≤ (Y 2 + Z 2 )/2.
Définition 3.3.9. I Soit Y et Z deux variables aléatoires réelles de carré intégrable ( non
nécessairement à densité ). On appelle covariance de Y et Z le nombre Cov(Y, Z) défini par
I Soit X = (X1 , ..., Xd ) un vecteur aléatoire à valeurs dans IRd ( non nécessairement à densité )
dont les composantes sont de carré intégrable. On appelle matrice de covariance du vecteur X, la
matrice K X de dimension d × d et d’éléments Ki,j X défini par
X
Ki,j = Cov(Xi , Xj ) = IE [(Xi − IE(Xi ))(Xj − IE(Xj ))] , 1 ≤ i, j ≤ d.
Preuve. Nous traittons uniquement la deuxième partie du 3. La preuve du reste est à faire en
exercice. Considérons Y ∼ U[−1, 1] et Z = εY où ε est une variable aléatoire indépendante de Y
telle que IP(ε = 1) = IP(ε = −1) = 21 . On a IE(Y ) = 0 et IE(Y Z) = IE(εY 2 ) = IE(ε)IE(Y 2 ) =
0 × IE(Y 2 ) = 0 si bien que Cov(Y, Z) = 0. Mais comme ε2 = 1,
1 1 4
Z
2 2 2 4 4 1
IE(Y Z ) = IE(ε Y ) = IE(Y ) = y dy =
2 −1 5
1 1 2
Z
1 1
IE(Y 2 ) = y dy = et IE(Z 2 ) = IE(ε2 Y 2 ) = IE(Y 2 ) =
2 −1 3 3
1 1
Si bien que IE(Y 2 Z 2 ) = 6= = IE(Y 2 )IE(Z 2 ). les variables Y et Z ne sont donc pas indépendantes.
5 9
Proposition 3.3.14. On suppose que f (X, Y ) est intégrable. Pour toute fonction g : IRd2 −→ IR
telle que f (X, Y )g(Y ) est intégrable, la variable aléatoire IE (f (X, Y )|Y ) g(Y ) est intégrable et on
a
IE [IE (f (X, Y )|Y ) g(Y )] = IE (f (X, Y )g(Y )) .
En outre, IE [IE (f (X, Y )|Y )] = IE (f (X, Y )). Enfin si f (X, Y ) est de carré intégrable, IE (f (X, Y )|Y )
l’est aussi et V ar [IE (f (X, Y )|Y )] ≤ V ar [f (X, Y )].
Exercise 3.3.15. Soit U et V deux variables aléatoires uniformes sur [0, 1] indépendantes et Y =
U −V.
1. Calculer la loi du couple (U, Y ).
2. En déduire la loi marginale de Y .
3. Donner la loi conditionnelle de U sachant Y = y et calculer IE(U |Y ).
Proposition 3.4.1. (i) Soit X1 , X2 , ..., Xn des variables aléatoires identiques identiquement dis-
tribuées (I.I.D) suivant la loi exponentielle de paramètre θ > 0 .
Alors la loi de Sn = X1 + X2 + ... + Xn est la loi gamma de paramètre (n, θ): Γ(n, θ).
X
(ii) Soit X ∼ Γ(a, θ) et Y ∼ Γ(b, θ) indépendantes. Alors S = X + Y et Z = X+Y sont deux
variables aléatoires indépendantes de loi respective Γ(a + b, θ) et β(a, b).
1 n y
pX (y) = n
n
y 2 −1 e− 2 I{y>0}
2 Γ( 2 )
2
Γ( n+1
2 ) 1
pX (t) = n √ ×
Γ( 2 ) nπ (1 + t2 ) n+1
2
n
Preuve. Exercice.
Chapter 4
Définition 4.1.2. On dit qu’un vecteur aléatoire X = (X1 , X2 , ..., Xd ) : Ω −→ IRd est un vecteur
gaussien si toute combinaison linéaire de ses coordonnées est une variable aléatoire gaussienne
réelle. C’est à dire si pour tous réels a1 , a2 , ..., ad , la variable aléatoire réelle a1 X1 +a2 X2 +...+ad Xd
est une variable aléatoire gaussienne.
Proposition 4.1.3. Soit (X1 , X2 , ..., Xd ) une suite de variable aléatoire réelle. Si le vecteur X =
(X1 , X2 , ..., Xd ) est une vecteur gaussien de dimension d, alors pour tout k = 1, 2, ..., d Xk est une
variable aléatoire réelle gaussienne.
La réciproque est fausse.
Proposition 4.1.4. Soit (X1 , X2 , ..., Xd ) une suite indépendantes de variable aléatoire réelle.
Si le vecteur X = (X1 , X2 , ..., Xd ) est une vecteur gaussien de dimension d si et seulment si pour
tout k = 1, 2, ..., d Xk est une variable aléatoire réelle gaussienne.
Preuve. (=⇒) Cela résulte de l adéfinition des vecteurs gaussiens. ( pas besoin de l’hypothèse
d’indépendance).
(⇐=) Si (X1 , X2 , ..., Xd ) est une suite indépendante de variable aléatoire réelle, alors pour tous
réels a1 , a2 , ..., ad , la suite (a1 X1 , a2 X2 , ..., ad Xd ) est indépendante. De plus si la variable aléatoire
réelle Xk ∼ N (mk , σk2 ), la variable aléatoire réelle ak Xk ∼ N (ak mk , a2k σk2 ). La variable aléatoire
réelle a1 X1 + a2 X2 + ... + ad Xd est alors une une variable aléatoire réelle gaussienne comme somme
de variables aléatoires réelles gaussiennes indépendantes.
et
h i
σY2 = IE (Y − mY )2 = IE (u1 (X1 − m1 ) + u2 (X2 − m2 ) + ... + ud (Xd − md ))2 [
X
= ui uj IE [(Xi − mi )(Xj − mj )]
1≤i,j≤d
X
= ui uj Cov 0 Xi , Xj ) = hu, D ui
1≤i,j≤d
On obtient
1
ΦX (u) = exp ihu, mi − hu, D ui
2
(⇐=) Soit X = (X1 , X2 , ..., Xd ) un vecteur aléatoire quelconque de fonction caractéristique définie
sur IRd par
1
ΦX (u) = exp ihu, mi − hu, D ui
2
Soit Y = a1 X1 + a2 X2 + ... + ad Xd une combinaison linéaire des composantes de X. Pour tout réel
t
ΦY (t) = IE(eitY ) = IE ei(ta1 X1 +ta2 X2 +...+tad Xd ) = ΦX (a1 t, a2 t, ..., ad t)
1
= exp iha, mi − t2 ha, D ai
2
où on a posé a = (a1 , a2 , ..., ad ). Ainsi pour tout n-uplet de réels (a1 , a2 , ..., ad ), la variable aléatoire
réelle a1 X1 +a2 X2 +...+ad Xd est une la variable aléatoire réelle gaussienne de loi N (ha, mi, ha, D ai).
X est bien un vecteur gaussien.
Définition 4.2.2. On appelle loi de Gauss-Laplace ou loi normale sur IRd de paramètres
m et D, la loi de probabilité d’un vecteur gaussien de dimension d d’espérance m et de matrice de
dispersion D. On note Nd (m, D).
Proposition 4.2.5. Soient m ∈ IRd et D une matrice carrée d’ordre d à coefficients réels,
symétrique et de type positif. Si D est inversible, alors X ∼ Nd (m, D) a pour densité sur IRd
1 1 ∗ −1
pX (x) = p exp − (x − m) D (x − m)
(2π)2 det(D) 2
Exemple 4.2.6. Soit (X, Y ) un couple de variables aléatoires réells admettant pour densité
1
l’application définie sur IR2 par f (x, y) = exp − (x2 − xy + y 2 ) . On vérifie que
2
1 − 12
x −1 x
(x2 − xy + y 2 ) = (x, y) = (x, y)D
− 12 1 y y
4 2
3 3
où D = est la matrice de dispersion du vecteur (X, Y ). On déduit que (X, Y ) est
2 4
3 3
un vecteur gaussien de loi Nd (0, D). Aussi X et Y suivent la loi N1 (0, 34 ). Puisque D n’est pas
diagonale, X et Y ne sont pas indépendantes.
28 CHAPTER 4. VECTEURS ALÉATOIRES GAUSSIENS
Chapter 5
5.1 Convergence
Définition 5.1.1. Pour n −→ +∞, on dit qu’une suite (Xn )n≥1 de variables aléatoires à valeurs
dans IRd converge vers la variable X à valeurs dans IRd :
I Presque sûrement si IP (Xn −→ X) = IP ({ω : Xn (ω) −→ X(ω)}) = 1. C’est à dire les fonctions
Xn (ω) définies sur Ω convergent ponctuellement sur un sous-ensemble de Ω de probabilité 1 vers la
fonction X.
I En probabilité si ∀ε > 0, IP (|Xn − X| ≥ ε) tend vers 0 quand n −→ +∞.
I Dans L1 si les variables Xn , X sont intégrables et IE(|Xn −X|) tend vers 0 quand n −→ +∞.
I Dans L2 ( ou en moyenne quadratique) si les variables Xn , X sont de carré intégrables et
IE(|Xn − X|2 ) tend vers 0 quand n −→ +∞.
Remarque 5.1.2. Soit (Xn )n≥1 une suite de variables aléatoires réelles qui converge dans L1 vers X.
Alors lim IE(Xn ) = IE(X). En effet, comme Xn − X ≤ |Xn − X|, par linéaritét croissance de
n−→+∞
l’espérance, IE(Xn ) − IE(X) = IE(Xn − X) ≤ IE|Xn − X|. De même, par symétrie IE(X) − IE(Xn ) =
IE(X − Xn ) ≤ IE|X − Xn |. Ainsi |IE(Xn ) − IE(X)| ≤ IE|Xn − X|. Ce qui permet de conclure.
Théorème 5.1.3. (convergenge dominée). Soit (Xn )n≥1 une suite de variables aléatoires réelles
qui converge presque sûrement vers X. On suppose d eplus la suit est dominée au sen soù il existe
un evariable aléatoire Y intégrable telle que
∀n ≥ 1, IP(|Xn | ≤ Y ) = 1.
Alors X est intégrable et (Xn )n≥1 converge dans L1 vers X. Ce qui entraı̂ne en particulier que
lim IE(Xn ) = IE(X).
n−→+∞
IE(X 2 )
∀a ≥ 0, IP(|X| ≥ a) ≤ .
a2
Inégalité de Cauchy-Schwarz: Si les variables X et Y sont de carré intégrable, alors
p p
|IE(XY )| ≤ IE(X 2 ) IE(Y 2 ).
30 CHAPTER 5. CONVERGENCE ET THÉORÈMES LIMITES
|x|
Preuve. • Inégalité de Markov: Comme ∀x ∈ IR, I{|x|≥a} ≤ a , en utulisant la propriété de la
croissance de l’espérance, on obtient
|X|
IP(|X| ≥ a) = IE I{|x|≥a} ≤ .
a
x2
• Inégalité de Bienaymé-Tchebychev : Utiliser ∀x ∈ IR, I{|x|≥a} ≤ a2
et la même méthode.
• Inégalité de Cauchy-Schwarz: Utiliser ∀λ ∈ IR, le polynôme
IE(X 2 ) + 2λIE(XY ) + λ2 IE(Y 2 ) = IE[(X + λY )2 ] ≥ 0
Son discriminant 4[IE(XY )]2 − 4IE(X 2 )IE(Y 2 ) ≤ 0. Ce qui donne le résultat.
Proposition 5.2.1. Soit (Xj )j≥1 une suite de variables aléatoires réelles indépendantes identique-
n
1X
ment distribuées ( (I.I.D) de carré intégrable. Alors la moyenne empirique Xj converge dans
n
j=1
L2 ( et donc dans L1 et en probabilité) vers l’espérance commune IE(X1 ).
5.3. FONCTION CARACTÉRISTIQUE ET CONVERGENCE EN LOI 31
Preuve.
2
n n
1 X X
IE (X¯n − IE(X1 ))2 =
IE Xj − IE Xj
n2
j=1 j=1
n
1 X
= V ar(Xj ) par indépendance des Xj
n2
j=1
V ar(X1 )
= −→n→+∞ 0
n
où U est une variable uniforme sur [0, 1]. Ainsi la suite (Un )n≥1 converge en loi vers U ∼ U[0, 1].
I Pour n ∈ IN∗ , Xn est une variable aléatoire uniformément répartie sur [0, 1/n]. Alors pour tout
f continue bornée,
Z 1
n
IE(f (Xn )) = n f (x)dx −→n→+∞ f (0).
0
Donc,la suite (Xn )n≥1 converge en loi vers X telle que IP(X = 0) = 1. δ0 la mesure de Dirac.
I Pour n ∈ IN, soit Tn une variable aléatoire exponentielle de paramètre λn > 0. On suppose que
la suite (λn )n converge vers λ > 0. Alors pour f : IR → IR continue bornée,
∀n ∈ IN, ∀x ≥ 0, |f (x)λn e−λn x | ≤ g(x) = |f (x)|(sup λn )e−(inf n λn )x ,
n
où la fonction g est intégrable sur [0, +∞[. Par le théorème de la convergence dominée,
Z +∞
IE(f (Tn )) = f (x)λn e−λn x dx
0
Z +∞
converge vers f (x)λe−λ x dx = IE(f (T )) où T suit la loi exponentielle de paramètre λ > 0.
0
Ainsi (Tn )n converge vers T ∼ E(λ).
5.3. FONCTION CARACTÉRISTIQUE ET CONVERGENCE EN LOI 33
d
Proposition 5.3.9. Soit (Xn )n une suite de variables aéatoires à valeurs dans IR converge en loi
vers X et ϕ : IRr → IRq une fonction continue. Alors la suite (ϕ(Xn ))n converge en loi vers ϕ(X).
Preuve. Soit g : IRq →R continue bornée. La fonction g ◦ ϕ : IRd → IR est continue bornée.
Doncla convergence en loi de (Xn )n≥1 vers X entraı̂ne que
Théorème 5.3.10. La suite (Xn )n≥1 de variables aéatoires à valeurs dans IRd converge en loi
vers la variable aéatoire X à valeurs dans IRd si et seulement si la fonction caractéristique de Xn
converge ponctuellement vers la la fonction caractéristique de X. C’st à dire
L
→ X ⇐⇒ ∀u ∈ IRd , ΦXn (u) → ΦX (u)
Xn −
Corollaire 5.3.11. Si la suite (Xn )n≥1 converge en probabilité vers X, alors elle converge en loi
vers X.
|ei∠u,Xn i − ei∠u,Xi | = |ei∠u,Xn i − ei∠u,Xi |I{|Xn −X|≥ε} + |ei∠u,Xn i − ei∠u,Xi |I{|Xn −X|<ε}
≤ 2 × I{|Xn −X|≥ε} + |ei∠u,Xn i − ei∠u,Xn i |I{|Xn −X|<ε} .
Par suite
|ΦXn (u) − ΦX (u)| = |IE ei∠u,Xn i − ei∠u,Xn i | ≤ IE ei∠u,Xn i − ei∠u,Xn i ≤ 2IP (|Xn − X| ≥ ε) + |u|ε.
Uniformément en n, le second terme à gauche est arbitrairement petit tandis qu’à ε fixé le pre-
mier terme converge vers 0 quand n → +∞ ( dû à la convergence en probabilité). Ainsi, ∀u ∈
IRd , ΦXn (u) → ΦX (u).
Proposition 5.3.12. Si la suite (Xn )n≥1 de variable aléatoires à valeurs dans IRd converge en loi
vers la variable aléatoire X à valeurs dans IRd , alors
pour toute fonction f : IRd −→ IR bornée dont l’ensemble des points de discontinuité D vérifie
IP(X ∈ D) = 0.
Remarque 5.3.13. Il ne suffit pas que la suite (Xn )n converge en loi vers X et que la suite (Yn )n
converge en loi vers Y pour que la suite des couples (Xn , Yn )n converge en loi vers (X, Y ). En
1
exemple, soit Z la variable aléatoire telle IP(Z = −1) = IP(Z = 1) = et (Xn , Yn ) = (Z, (1)−n Z).
2
Alors la suite (Xn )n converge en loi vers Z. De même la suite (Yn )n converge en loi vers Z puisque
L(−Z) = L(Z). Mais pour la fonction continue bornée f (x, y) = min(|x − y|, 2) sur IR2 ,
0 si n est pair
IE ((f (Xn , Yn )) =
2 si n est impair
La convergence en loi de Yn vers Y entraı̂ne que le second terme tend vers 0 quand n → +∞. En
outre la fonction x ∈ IRd1 7→ f (x) = |eihu,xi − eihu,ai | est continue et bornée. On déduit que le
premier terme converge vers IE(f (a)) = 0. On conclut ainsi que (Xn , Yn )8n converge en loi vers
(a, Y ).
Les cas particuliers proviennent de la Proposition 5.3.9 en remarquant que (x, y) ∈ IR × IR 7→ xy
et (x, y) ∈ IRd1 × IRd2 7→ x + y sont des fonctions continues.
1 Pn
Preuve. On note X̄n = n j=1 Xj . Soit u ∈ IR,
1 Pn
(X −IE(Xj ))
h i
iu √
Φ √n (u) = IE e σ n j=1 j
σ (X¯n −IE(X1 ))
n
1
X −IE(Xj ))
IE e σ n ( j
h i
iu √
Y
= par indépendance des Xj
j=1
in
1
X −IE(X1 ))
IE e σ n ( 1
h
iu √
= car les Xj ont même loi ,
n
u
= ΦX1 −IE(X1 ) √ .
σ n
σ2 2
ΦX1 −IE(X1 ) (v) = 1 − v + o(v 2 ).
2
Donc pour n grand,
u2
u 1
ΦX1 −IE(X1 ) √ =1− + o( )
σ n 2n n
Par suite n
u2
1 u2
Φ √
n ¯ IE (u) = 1 − + o( ) →n→+∞ e− 2 = ΦY (u).
σ ( n
X − (X1 )
) 2n n