Cours avancé sur les probabilités finies
Cours avancé sur les probabilités finies
A. Elouaflin11
1
e-mail: elabouo@[Link]
2
Chapter 1
Définition 1.1.1. Une probabilité IP sur Ω = {ω1 , ω2 , ..., ωn } est une famille (p1 , p2 , ..., pn ) de réels
vérifiants
n
X
∀ 1 ≤ k ≤ n, 0 ≤ pk ≤ 1, et pk = 1
k=1
X
On attribue à tout événement A ⊂ Ω, le nombre IP(A) = pk qui est appelé probabilité de
k: ωk ∈A
l’événement A.
Exemple 1.1.2. Jet de deux dés à six faces: Ω = {(i, j) : 1 ≤ i, j ≤ 6} où i désigne la valeur de la
face supérieure du premier dé et j celle du second. Les dés ne sont pas pipés. On munit Ω de la
1
pondération suivantes: ∀ 1 ≤ i, j ≤ 6, p(i,j) = .
36
Soit A l’événement: les valeurs des deus dés sont identiques. On a A = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}
6
X 6 1
et IP(A) = p(i,i) = = .
36 6
i=1
On note S la somme des deux dés et {S = k} l’événement {(i, j) : S(i, j) = k}. On a S(i, j) = i + j.
Calculer IP(S = k) pour k = 2, ..., 12.
Rappels de dénombrement
IP(A∩B)
IP(B) si IP(B) > 0
IP(A|B) =
IP(A) sinon
Exercise 1.2.2. 1. Dans une famille qui comporte deux enfants, l’un est une fille. On cherche la
probabilité que l’autre soit un garçon.
2. On suppose maintenant que l’aı̂né des enfants est une fille. Quelle est la probabilité que l’autre
soit un garçon.
Exercise 1.2.3. Parmi 10 pièces mécaniques, 4 sont défectueuses. on prend successivement deux
pièces au hasard dans le lot sans remise. quelle est la probabilité pour que les deux pièces soient
correctes.
Remarque 1.2.4. De façon naturelle, on peut utiliser la définition sous la forme IP(A ∩ B) =
IP(A|B)IP(B). Ce qui se généralise en IP(A1 ∩A2 ∩...∩Am ) = IP(Am |A1 ∩A2 ∩...∩Am−1 ).IP(Am−1 |A1 ∩
A2 ∩ ... ∩ Am−2 )....IP(A2 |A1 )IP(A1 )
Proposition 1.2.5. ( Formule de Bayes). Soient B1 , ..., Bm une partition de Ω ( i.e des sous-
ensembles disjoints de Ω dont la réunion est ω) et A ⊂ Ω tel que IP(A) > 0. Alors pour tout
1 ≤ i ≤ m,
IP(A|Bi )IP(Bi )
IP(Bi |A) = Pm
j=1 IP(A|Bj )IP(Bj )
Exercise 1.2.6. Pour dépister une maladie, on applique un test sanguin. Si le patient est atteint,
le test donne un résultat positif dans 99 pour cent des cas. Mais le test est également positif pour
2 pour cent des personnes en bonne santé. La proportion de personnes malades dan sl apopulation
soumise au test est de 10−3 . calculer la probabilité pour qu’un patient soit en bonne santé sachant
que le résultat de son test est positif.
1.2.2 Indépendance
Définition 1.2.7. Soit Ω muni d’une probabilité IP. Deux événements A et B sont dits indépendants
si
IP(A ∩ B) = IP(A)IP(B)
Notations
S
Soit Ω un ensemble, ATn ⊂ Ω et f : Ω −→ IR. On écrit An ↑ A si An ⊂ An+1 et A = An ; An ↓ A
si An ⊃ An+1 et A = An ; fn ↑ f si fn ≤ fn+1 et f = sup fn ; fn ↓ f si fn ≥ fn+1 et f = inf fn ;
Enumération
On appelle énumération de I toute bijection φ de IN sur I. Soient (ai , i ∈ I) une famille de nombres
réels ou complexes et φ une énumération de I. On pose
Snφ = aφ(0) + aφ(1) + ... + aφ(n)
8 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
Famille sommable positive
¯ +.
On suppose que pour tout i ∈ I, ai ≥ 0. Alors la suite Snφ est croissante et S φ = lim ↑ Snφ ∈ IR
Si ψ est une autre énumération de I, on a, pour n fixé et m assez frand,
Ainsi Snφ ≤ Sm
ψ
≤ S ψ . D’où S φ ≤ S ψ . En changeant le rôle de φ et ψ, on obtient également
S ≤ S et finalement S φ = S ψ .
ψ φ
Théorème 2.2.1. Soit (ai , i ∈ I) une famille de nombre réels positifs. Alors, pour toute énumération
φ deXI, la suite Snφ converge en croissant vers un nombre S ∈ IR ¯ + indépendant de φ. On note
S= ai . Si S < +∞, la famille est dite sommable.
i∈I
X X
Proposition 2.2.2. (i) Si In ↑ I, In fini; ai ↑ ai .
i∈In i∈I
P X
(ii) Pour tout A < i∈I ai , il existe J ⊂ I, J fini tel que ai > A.
X X i∈J
(iii) Si 0 ≤ ai ≤ bi ; ai ≤ bi .
i∈I i∈I X X X
(iv) Pour α ≥ 0, β ≥ 0, ai ≥ 0, bi ≥ 0, on a (αai + βbi ) = α ai + β bi
i∈I i∈I i∈I
Proposition 2.2.6. Soit (ai , i ∈ I) une famille sommable de nombre réels ou complexes. X
(i) Pour toute énumération φ de I, Snφ converge vers S indépendant de φ. On note S = ai et
X X i∈I
on a | ai | ≤ |ai |.
i∈I i∈I X XX
(ii) Soit (Ij , j ∈ J) une partition de I. on a ai = ai .
i∈I j∈J i∈Ij
(iii) Soit (bi , i ∈ I) une autre famille de nombre
X réels ou complexes
X et α,X β réels ou complexes. La
famille (αai + βbi , i ∈ I) est sommable et (αai + βbi ) = α ai + β bi
i∈I i∈I i∈I
2.2. VARIABLES ALÉATOIRES DISCRÈTES 9
2.2.2 Espace de probabilité discret
Définition 2.2.7. Soit E un ensemble dénombrable. Une probabilité IP sur E est une famille
(p(a), a ∈ E) de réels vérifiants
X
0 ≤ p(a) ≤ 1, et p(a) = 1
a∈E=1
X
On attribue à tout événement A ⊂ E, le nombre IP(A) = p(a) qui est appelé probabilité de
a∈A
l’événement A.
Proposition 2.2.8. IP est une application de P(E) dans [0, 1] qui vérifie:
(i) IP(E) = 1.
(ii) (A ∪ B) = IP(A) + IP(B) si A ∩ B = ∅.
(iii) IP(An ) ↑ IP(A) si An ↑ A.
(iv) Pour toute famille (An , n ∈ IN) de sous-ensembles de E deux à deux disjoints,
[ X
IP( An ) = IP(An )
n∈IN n∈IN
.
Preuve. Exercice.
2.2.3 Définition
Définition 2.2.9. On appelle variable aléatoire discrète une application X : Ω −→ F où F est un
ensemble dénombrable (F est égal IN ou IZ ou à une partie de IZ. Pour x ∈ F , on note {X = x}
l’éveément {ω : X(ω) = x}. La famille des nombres (IP(X = x))x∈F s’appelle la loi de X.
Exemple 2.2.10. J Dans le cas du jet de dés, la somme S des deux dés est une variable aléatoire
discrète à valeurs dans F = {2, 3, 4, ..., 12}}.
J Soit A ⊂ Ω un événement. Sa fonction indicatrice IA définie par
1 si ω ∈ A
∀ω ∈ Ω, IA (ω) =
0 sinon
est une variable aléatoire discrète de loi:
IP(IA = 1) = IP(A) et IP(IA = 0) = 1 − IP(A).
2.2.4 Indépendance
Définition 2.2.11. J Deux variables aléatoires discrètes X et Y à valeurs respectivement dans F
et G sont dits indépendantes si
∀x ∈ F, ∀y ∈ G, IP(X = x, Y = y) = IP(X = x).IP(Y = y).
J n variables aléatoires discrètes X1 , X2 , ...., Xn à valeurs respectivement dans F1 , F2 , ..., Fn sont
dits indépendantes si
n
Y
∀x1 ∈ F1 , ..., ∀xn ∈ Fn , IP(X1 = x1 , ..., Xn = xn ) = IP(X = xi ).
i=1
J une famille quelconque de variables aléatoires discrètes est dite indépendante si tout sous-
famille finie est indépendante.
10 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
Exemple 2.2.12. Jet de 2 dés: Ω = {(i, j);q uad1 ≤ i, j ≤ 6} muni de la probabilité uniforme.
Soit X1 la valeur du premier dé et X2 celle du second. On a X1 (i, j) = i et X2 (i, j) = j et
1
∀1 ≤ i ≤ 6 IP(X1 = i) = IP(X2 = i) =
6
Comme
1 11
∀1 ≤ i, j ≤ 6 IP(X1 = i, X2 = j) = = = IP(X1 = i)IP(X2 = j),
36 66
les variables X1 et X2 sont indépendantes.
Remarque 2.2.13. J Si les variables aléatoires discrètes X1 , ..., Xn sont indépendantes, pour 1 ≤
d < n, les deux variables aléatoires discrètes (X1 , ..., Xd ) et (Xd+1 , ..., Xn ) sont indépendantes.
J Ce résultat se généralise de l afaçon suivante: ∀m ∈ {1, ..., n−1}, ∀1 ≤ d1 < d2 < ... < dm < n, les
variables aléatoires discrètes (X1 , ..., Xd1 ), (Xd1 +1 , ..., Xd2 ) (Xdm −1 , ..., Xdm ) et (Xdm +1 , ..., Xn )
sont indépendantes.
Exemple 2.2.14. Si X suit une loi de Bernouli B(1/2). Alors, Y = 1 − X suit la même loi
de Bernoulli B(1/2). On note L(X) = L(Y ). En considérant les couples (X, X) et (X, Y ), les
premières coordonnées ont même loi que les secondes coordonnées. Mais
1
IP ((X, Y ) = (1, 0)) = IP(X = 1) = 6= 0 = IP ((X, X) = (1, 0))
2
En revanche, si l’on connaı̂t la loi du couple discrèt (X, Y ), on en déduit la loi de X et celle de
Y par la formule dite de loi marginale.
On somme sur les valeurs prises par la variable Y dont on souhaite se débarrasser.
[
Preuve. Il suffit de remarquer que {X = x} = {X = x, Y = y} est une réunion disjointe de
y∈G
famille dénombrable et d’utiliser la σ-additivité.
Proposition 2.2.20. Soient X et Y sont deux variables aléatoires discrètes à valeurs respective-
ment dans F et G.
1. Si X et Y sont indépendantes alors pour toutes fonctions f : F −→ IR et g : G −→ IR telles que
f (X) et g(Y ) sont intégrables, alors f (X)g(Y ) est intégrable et IE (f (X)g(Y )) = IE(f (X))IE(g(Y )).
2. Inversement, si pour toutes fonctions f : F −→ IR et g : G −→ IR bornées, IE (f (X)g(Y )) =
IE(f (X))IE(g(Y )), alors X et Y sont indépendantes.
Preuve. Exercice
Variance
Définition 2.2.21. Soit X : Ω −→ F ⊂ IR une variable aléatoire discrète à valeurs réelles. Soit
p ∈ IN∗ .
1. Si IE(|X|p ) < +∞, alors IE(|X|
X
p ) s’appelle le moment absolu d’ordre p de X et IE(X p ) le
n
X n
X n
X
V ar(X1 + ... + Xn ) = V ar(Xi ) + IE ((Xi − IE(Xi ))(Xj − IE(Xj )))
i=1 i=1 i6=j, j=1
Par indépendance des variables X1 , ..., Xn , on a pour i 6= j IE ((Xi − IE(Xi ))(Xj − IE(Xj ))) = 0.
La preuve est complète.
Soit n ∈ IN∗ , C’est la loi d’une variable aléatoire à valeurs dans {0, 1, ..., n} telle que
Elle est appelée loi binomiale de paramètre n, p et notée B(n, p). On écrit X ∼ B(n, p). En
particulier si X ∼ B(1, p), on dit que X est une variable aléatoire de Bernoulli.
n n
X X X (n − 1)!
IE(X) = kIP(X = k) = kCnk pk (1 − p)n−k = np pk−1 (1 − p)n−k
(k − 1)!(n − k)!
k≥0 k=0 k=0
n−1
X
i
= np Cn−1 pi (1 − p)n−1−i = np(p + (1 − p))n−1 = np
i=0
X n
X n
X
2 2
IE(X ) = k IP(X = k) = k(k − 1)Cnk pk (1 − p) n−k
+ kIP(X = k)
k≥0 k=2 k=1
n
X (n − 2)!
= n(n − 1)p2 pk−2 (1 − p)n−k + np
(k − 2)!(n − k)!
k=2
n−2
X
= n(n − 1)p2 i
Cn−2 pi (1 − p)n−2−i + np = n(n − 1)p2 + np.
i=0
λk
IP(X = k) = e−λ , k ∈ IN; λ > 0.
k!
Elle est appelée loi de Poisson de paramètre λ et se note P(λ). On écrit X ∼ P(λ).
∞ k ∞
X X
−λ λ
X
λ λk−1
IE(X) = kIP(X = k) = ke = λe =λ
k! (k − 1)!
k≥0 k=0 k=0
∞ k ∞
−λ λ
X X X
2 2
IE(X ) = k IP(X = k) = k(k − 1)e + kIP(X = k)
k!
k≥0 k=2 k=0
∞
X λk−2
= λ2 e−λ = λ2 + λ
(k − 2)!
k=2
On a alors V ar(X) = λ2 + λ − λ2 = λ.
Loi géométrique
Elle est appelée loi géométrique de paramètre p et se note G(p). On écrit X ∼ G(p). C’est la loi du
temps du premier succès dans une suite d’expériences aléatoires indépendantes où la probabilité de
succès est p.
∞ ∞
!0
X X X
IE(X) = kIP(X = k) = k(1 − p)k−1 p = p xk
k≥0 k=1 k=0 |(x=1−p)
0
1 1
= p =
1−x |(x=1−p) p
X ∞
X ∞
X
IE(X 2 ) = k 2 IP(X = k) = k(k − 1)(1 − p)k−1 p + kIP(X = k)
k≥0 k=2 k=0
∞
!00
X
k 1
= p(1 − p) x +
p
k=0 |(x=1−p)
2 1 2 1 2(1 − p) 1
= p(1 − p) 3
+ = p(1 − p) 3 + = +
(1 − x) |(x=1−p) p p p p2 p
2(1 − p) 1 1 1−p
On a alors V ar(X) = 2
+ − 2 =
p p p p2
14 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
2.4 Fonction génératrice des variables aléatoires entières
Définition 2.4.1. Soit X : Ω −→ IN une variable aléatoire discrète à valeurs enitières. On appelle
fonction génératrice de X la fonction gX : [0, 1] −→ IR définie par
X
gX (s) = IE(sX ) = sn IP(X = n).
n∈IN
X X
Comme IP(X = n) < +∞, l asérie entière sn IP(X = n) = gX (s) a un rayon de
n∈IN n∈IN
convergence inférieur ou égal à 1, est C ∞ sur [0, 1].
1 (n)
IP(X = n) = g (0)
n! X
X n
X
gX (s) = n
s IP(X = k) = Cnk pk sk (1 − p)n−k = (ps + (1 − p))n .
k∈IN k=0
X X λk sk
gX (s) = sn IP(X = k) = e−λ = eλ(s−1) .
k!
k∈IN k≥0
∞
X
n
X
k−1 k
X
k−1
X ps
gX (s) = s IP(X = k) = (1−p) ps = ps ((1−p)s) = ps ((1−p)s)l = .
∗
1 − (1 − p)s
k∈IN k>0 k>0 l=0
Proposition 2.4.4. i). IE(X) < +∞ si et seulement si gX est dérivable à gauche en 1, et dans ce
cas, on a IE(X) = gX0 (1).
ii). IE(X 2 ) < +∞ si et seulement si gX est deux fois dérivable à gauche en 1, et dans ce cas, on a
IE(X(X − 1)) = gX ” (1).
Preuve. (i). On a
gX (s) − gX (1) X sk − 1 X X
= IP(X = k) = IP(X = k)(1+...+sk−1 ) ↑ kIP(X = k) quand s ↑ 1
s−1 s−1
k≥0 k≥0 k≥0
Exercise 2.4.6. Soit (Xi )i≥1 une suite de variables entières indépendantes et identiquement dis-
tribuées et N une variable aléatoire entière indépendante de la suite. On pose
X1 + ... + XN si N ∈ IN∗
S=
0 si N = 0
Exprimer gS (u) en fonction de gX1 (u) et gN (u). En déduire la loi de S lorque N suit la loi
géométrique de paramètre p et les Xi la loi géométrique de paramètre q.
Définition 2.5.3. Soient X et Y deux variables aléatoires discrètes à valeurs respectives dans F
et G et f : F × G −→ IR telle que f (X, Y ) est intégrable. On appelle espérance conditionnelle de
f (X, Y ) sachant Y et on note IE (f (X, Y )|Y ) la variable aléatoire discrète
X
IE (f (X, Y )|Y ) = ψ(Y ) où ∀y ∈ G, ψ(y) = f (x, y)IP(X = x|Y = y).
x∈F
Proposition 2.5.4. On suppose que f (X, Y ) est intégrable. Pour toute fonction g : G −→ IR telle
que f (X, Y )g(Y ) est intégrable, la variable aléatoire IE (f (X, Y )|Y ) g(Y ) est intégrable et on a
En outre,
X
IE [IE (f (X, Y )|Y ) g(Y )] = g(y)ψ(y)IP(Y = y)
y∈G
!
X X
= g(y) f (x, y)IP(X = x|Y = y) IP(Y = y)
y∈G x∈F
X
= f (x, y)g(y)IP(X = x, Y = y) = IE (f (X, Y )g(Y ))
x∈F,y∈G
Corollaire 2.5.5. Si la variable f (X, Y ) est intégrable, alors l’espérance conditionnelle IE(f (X, Y )|Y )
est aussi intégrable et IE [IE(f (X, Y )|Y ] = IE(f (X, Y )). En outre, si f (X, Y ) est de carré intégrable,
IE(f (X, Y )|Y ) l’est aussi et V ar [IE(f (X, Y )|Y ] ≤ V ar(f (X, Y ))
!2
X p p X
f (x, y) IP(X = x|Y = y) IP(X = x|Y = y) ≤ f 2 (x, y)IP(X = x|Y = y) × 1
x∈F x∈F
Donc IE(f (X, Y )|Y )2 ≤ IE(f 2 (X, Y )|Y ). Comme IE(f 2 (X, Y )|Y ) est intégrable et d’espérance égale
à IE(f 2 (X, Y )), on déduit de la proposition 2.2.18 que IE(f (X, Y )|Y )2 intégrable et
IE IE(f (X, Y )|Y )2 − (IE [IE(f (X, Y )|Y )])2 ≤ IE(f 2 (X, Y )) − (IE [IE(f (X, Y )|Y )])2
Vecteurs aléatoires
Dans la suite de ce cours le triplet (Ω, F, IP) désignera unespace de probabilité pris comme référence
appélé espace de base. Les ensembles mesurables relativementà F sont appélés événements de
Ω.
Principe de modélisation
Modéliser mathématiquement un phénomène aléatoire revient à introduire ce qui suit:
1. un triplet (Ω, F, IP) comme espace de probabilité abstrait,
2. une application X : Ω 7→ IRd telle que, pour tout borélien A de IRd , l’image-réciproque de
A par l’application X soit unélément de F.
C’est alors l’application IPX : A ∈ F 7→ IP(X ∈ A) qui seral’objet important du modèle.
.
3.3. MOMENT D’UN VECTEUR ALÉATOIRE 21
Proposition 3.3.5. Soit X un vecteur aléatoire de dimension d tel que IE(|X|2 ) < +∞ et M une
matrice à coefficients réels à c lig nes et d colonnes,alors
1.
i,j i,i
DX = cov(Xi , Xj ) = IE ([Xi − IE(Xi )][Xj − IE(Xj )]) , i 6= j DX = V ar(Xi )
2.
D[X−IE(X)] = DX , IE(M X) = M IE(X), DM X = M D X M t
3. DX est une matrice symétrique de type positif. c’est à dire pour tout u ∈ IRd , ut DX u ≥ [Link]
particulier DX est une matrice diagonalisable sur IR dont les valeurs propres dont des réels positifs
ou nuls.
Exercise 3.3.6. 1) Soit X le vecteur aléatoire dans l’exercice (??) . Déterminer DX .
2) Soit X un vecteur aléatoire de dimension d de composantes X1 , X2 , ..., Xd telque IE(X 2 ) < +∞.
d
X
2.a) Montrer que la variable aléatoire réelle Y := Xk est de carré intégrable.
k=1
2.b) Démontrer la relation
Xd d
X X
V ar( Xk ) = V ar(Xk ) + 2 Cov(Xi , Xj )
k=1 k=1 1≤i<j≤n
Z Z +∞ Z +∞ Z +∞ Z +∞
f (x + y) f (x + y) f (z)
dxdy = dy dx = dz dx
[0,+∞[×[0,+∞[ x+y 0 0 x+y 0 x z
Z +∞ Z +∞ Z +∞ Z +∞
f (z) f (z)
= I{z≥x} dz dx = I{z≥x} dx dz
0 0 z 0 z 0
Z +∞ Z z Z +∞
f (z)
= dx dz = f (z)dz
0 z 0 0
∂(ϕ−1 )i
où Jacϕ−1 (y) = Det ; 1 ≤ i, j ≤ d .
∂yj
22 CHAPTER 3. VECTEURS ALÉATOIRES
Z 2
Z 2 2
− x2 − x +y
Exercise 3.3.9. Calculer I = e dx. Indication: calculer I 2 = e 2 dxdy en utilisant
IR IR2
un changement de variables.
Exemple 3.3.10. Si O =]0, +∞[×]0, +∞[ et ϕ(x, y) = (x + y, x − y). Dire que O0 = ϕ(O) =
]0, +∞[×IR est faux.
Pour déterminer O0 , il faut déterminer ϕ−1 .
x = z+w
−1 z =x+y 2
ϕ (z, w) = (x, y) ⇔ (z, w) = ϕ(x, y) ⇔ ⇔
w =x−y y = z−w
2
z+w
0 −1 2 >0
(z, w) ∈ O ⇔ ϕ (z, w) ∈ O ⇔ z−w ⇔ z > |w|
2 >0
Dans la suite de cette section, nous donnons quelques propriétés classiques des fonctions car-
actérstiques. Nous insiterons sur leurs points intétrêts suivants: Elles servent
1. à identifier la loi d’un vecteur aléatoire,
2. à caclculer les moments d’un vecteur aléatoire,
3. à étudier l’indépendance d’une suite de vecteur aléatoire.
D’où |eit − 1| ≤ inf (2, |t|). Par suite pour tous vecteurs u et v de IRd , on a
En particulier pour tout entier naturel non nul n, et pour tous vecteurs u et v de IRd , tels que
1
|u − v| ≤ , on a
n
|x|
Z
|ΦX (u) − ΦX (v)| ≤ inf( 2, )dIPX (x).
IRd n
|x|
La suite de fonction inf( 2, ) est dominée sur IRd par la fonction constante 2 et converge
n n∈IN
∗
vers la fonction nulle sur IRd . Par le théorème de la convergence dominée de Lebesgue,
|x|
lim inf( 2, ) = 0. On en déduit que pour tout ε > 0, il existe un entier N0 tel que ∀n ≥ N0
n→+∞ n
|x|
Z
inf( 2, )dIPX (x) ≤ ε.
IRd n
Par suite, pour tout ε > 0, il existe η (η = n1 ) tel que pour tous vecteurs u et v de IRd ,|u − v| ≤ η,
implique |ΦX (u) − ΦX (v)| ≤ ε. D’où l’uniforme continuité de l afonction caractéristique.
• 4. En appliquant le théorème de Fubini
Z Z Z Z Z
ihx,yi ihx,yi
Φµ (y)dν(y) = e dµ(x) dν(y) = e dν(y) dµ(x)
IRd Z IRd
ZIRd
ZIR d
IR d
ihy,xi
= e dν(y) dµ(x) = Φν (x)dµ(x)
IRd IRd IRd
24 CHAPTER 3. VECTEURS ALÉATOIRES
Proposition 3.4.3. Théorème d’injectivité. (Admis)
Deux probabilités sur IRd sont identiques si et seulemnt si,elles ont la même fonction caractéristique.
Dans le cas où la fonction caractéristique est intégrable au sens de Lebesgue sur IR, on obtient
la connaissance de µ:
Proposition 3.4.5. Soit µ est une probabilité sur IRd de fonction cractéristique Φ. Si Φ est
intégrable au sens de Lebesgue sur IRd , alors µ admet une ensité f par rapport ‘a la mesure de
Lebesgue sur IRd . L’application f est une fonction à valeurs réelles, positives, bornée, continue sur
Rd et, pour tout x ∈ IRd , Z
1
f (x) = e−ihu,xi Φ(u)du
(2 π)d IRd
Proposition 3.4.6. Si X est une variable aléatoire réelle telle que IE(|X|n ) < +∞. C’est è
dire X ∈ Ln (Ω, F, IP) avec n un entier naturel non nul. Alors la fonction cractéristique est
continuement dérivable jusqu’à l’orde n et, pour tout u ∈ IR,
Z
(n) n
ΦX (u) = i xn eiux dIPX (x) = in IE(X n eiuX ).
IR
En particulier Z
(n) n
ΦX (0) =i xn dIPX (x) = in IE(X n ).
IR
Pour les vecteurs aléatoires, nous avons en particulier
Proposition 3.4.7. Si X = (X1 , X2 , ..., Xd ) est vecteur aléatoire de dimension d telle que IE(|X|2 ) <
+∞. C’est è dire X ∈ L2 (Ω, F, IP) . Alors pourtout k = 1, 2, ..., d et j = 1, 2, ..., d ona ,
∂ΦX ∂ 2 ΦX
IE(Xk ) = −i (0) et IE(Xk Xj ) = − (0)
∂uk ∂uk ∂uj
1
p(x) = I (x).
b − a [a,b]
(x − µ)2
1
p(x) = √ exp − IIR (x).
2πσ 2 2σ 2
Dans le cas où µ = 0 et σ 2 = 1, on dit que X suit la loi normale centrée réduite.
a 1
p(x) = I (x).
π x + a2 IR
2
Proposition 3.5.3. 1. L’espérance d’une variable aléatoire X qui possède une densité ne dépend
que de cette densité.
[Link]́arité: IE(X + λ Y ) = IE(X) + λIE(Y ).
3. Condition suffisante d’intégrabilité: Si IP(|X| ≤ Y ) = 1 et Y est intégrable, alors X l’est aussi.
4. Croissance: Si X et Y sont intégrables, IP(X ≥ Y ) = 1 =⇒ IE(X) ≥ IE(Y ).
Exercise 3.5.4. calculer l’espérance et la variance d’une variable uniforme sur [a, b]; d’une variable
exponentielle de paramètre λ > 0; d’une variable de Cauchy paramètre a > 0 et d’une variable
normale centrée réduite.
26 CHAPTER 3. VECTEURS ALÉATOIRES
3.5.4 Fonction de répartition
Définition 3.5.5. Soit X : Ω −→ IR une variable aléatoire réelle ( qui ne possède pas necessaire-
ment une densité ). On appelle fonction de répartition de X la fonction FX : x ∈ IR 7−→ IP(X ≤ x).
Il en résulte que FX croı̂t de 0 à 1 et est continue à droite. Elle a une limite à gauche en tout point
notée FX (x−). De plus on a
Résolution
Utilisons la mt́hode de la fonction muette. Pour toute fonction f : IR2 −→ IR bornée, calculons
IE[f (Z, W )] = IE[f (X + Y, X − Y )].
Soit ϕ : (x, y) ∈ IR2 7−→ (x + y, x − y) ∈ IR2 . La fonction g(x, y) = f ◦ ϕ(x, y) = f (x + y, x − y) est
une fonction bornée sur IR2 . On a donc
Z
IE[g(X, Y )] = 2
g(x, y)λ2 exp (−λ(x + y)) I{x≥0} I{y≥0} dxdy
Z IR
IE[f (X + Y, X − Y )] = 2
f (x + y, x − y)λ2 exp (−λ(x + y)) I{x≥0} I{y≥0} dxdy
IR
Z +∞ Z +∞
IE[f (Z, W )] = f (x + y, x − y)λ2 exp (−λ(x + y)) dxdy
0 0
La fonction ϕ est une bijection C 1 ainsi que son inverse (x, y) = ϕ−1 (z, w) = ( z+w z−w
2 , 2 ) de
O =]0, +∞[×]0, +∞[ sur O0 = {(z, w) ∈ IR : z > |w|}. On a |Jacϕ−1 (z, w)| = 2 et dxdy = 12 dzdw.
2 1
Ainsi
z+w z−w
Z
2 1
IE[f (Z, W )] = f (z, w)λ exp −λ + dzdw
(z,w):z>|w| 2 2 2
λ2
Z
= f (z, w) exp (−λ z) I{(z,w):z>|w|} (z, w)dzdw
2
λ2
On conclut que la densité du couple (Z, W ) est exp (−λ z) I{(z,w):z>|w|} (z, w).
2
La densité marginale de Z est
λ2
Z
exp (−λ z) I{(z,w):z>|w|} (z, w)dw = λ2 z exp (−λ z)
IR 2
celle de W est
λ2
Z
λ
exp (−λ z) I{(z,w):z>|w|} (z, w)dz = exp (−λ |w|)
IR 2 2
28 CHAPTER 3. VECTEURS ALÉATOIRES
3.6.3 Inépendance
Définition 3.6.7. Les vecteurs aléatoires X1 : Ω −→ IRd1 , ..., Xn : Ω −→ IRdn qui possèdent
respectivement les densités p1 , ..., pn sont dits indépendants si (X1 , ..., Xn ) possède la densité produit
p1 (x) × p2 (x) × ... × pn (x).
(2.) Inversement, si pour toutes fonctions f1 : IRd1 −→ IR, ..., fn : IRdn −→ IR boréliennes positives,
n
Y
IE [f1 (X1 ) × f2 (x)... × fn (Xn )] = IE [fi (Xi )], alors les vecteurs X1 , ..., Xn sont indépendants.
i=1
(2.) Inversement, si pour toutes fonctions f1 : IRd1 −→ IR, ..., fn : IRdn −→ IR boréliennes bornées,
n
Y
IE [f1 (X1 ) × f2 (x)... × fn (Xn )] = IE [fi (Xi )], alors les vecteurs X1 , ..., Xn sont indépendants.
i=1
3.6. VECTEURS ALÉATOIRES À DENSITÉ 29
Corollaire 3.6.10. Soit (X1 , X2 , ..., Xn ) une suite de variable aléatoires réelles intégtables. Si
la suite (X1 , X2 , ..., Xn ) est indépendante, alors la variable aléatoire réelle produit X1 X2 ...Xn est
intégrable et
IE [X1 X2 ...Xn ] = IE [X1 ] IE [X2 ] ...IE [Xn ]
La réciproque est fausse.
XY = (X + − X − )(Y + − Y − ) = X + Y + + X − Y − − X − Y + − X + Y −
= IE[X]IE[Y ]
1 1 4
Z
1
IE(Y 2 Z 2 ) = IE(ε2 Y 4 ) = IE(Y 4 ) = y dy =
2 −1 5
Z 1
1 1 1
IE(Y 2 ) = y 2 dy = et IE(Z 2 ) = IE(ε2 Y 2 ) = IE(Y 2 ) =
2 −1 3 3
1 1
Si bien que IE(Y 2 Z 2 ) = 6= = IE(Y 2 )IE(Z 2 ). les variables Y et Z ne sont donc pas indépendantes.
5 9
Proposition 3.6.12. Si (X1 , X2 , ..., Xn , Y1 , Y2 , ..., Yp ) est une suite indépendantes de variables
aléatoires, alors pour toutes applications boréliennes ϕ de IRn dans IRd1 et ψ de IRp dans IRd2 ;le
couple de vecteurs aléatoires (ϕ(X1 , X2 , ..., Xn ), ψ(Y1 , Y2 , ..., Yp )) est indépendant.
Preuve. • Considérons les vecteurs aléatoires X = (X1 , X2 , ..., Xn ) et Y = (Y1 , Y2 , ..., Yp ). Mon-
trons que le couple de vecteurs aléatoires (X, Y ) est indépendnt. Comme (X1 , X2 , ..., Xn , Y1 , Y2 , ..., Yp )
est une suite indépendante, pour tous boréliens de IR,A1 , A2 , ..., An , on a
• Soient deux applications boréliennes positives f1 et f2 sur IRd1 et IRd2 respectivement. Comme
f1 ◦ ϕ et f2 ◦ ψ sont des fonctions boréliennes positives, il vient
On déduit alors du critère des fonctions positives que la suite (ϕ(X), ψ(Y )) est indépendante.
Remarque 3.6.13. Lorsque les vecteurs aléatoires X1 , ..., Xn sont indépendants, alors ∀m ∈ [[1, n]], ∀1 ≤
d1 < d2 < ... < dm ≤ n, les vecteurs (X1 , X2 , ..., Xd1 ), (Xd1 +1 , ...Xd2 ), ..., (Xdm−1 +1 , ...Xdm ) et
(Xdm +1 , ...Xn ) sont indépendants.
Proposition 3.6.14. Critère d’indépendance par les fonctions caractéristiques.
Soit (X1 , X2 , ..., Xn ) une suite de vecteurs aléatoires dedimensions respectives d1 , d2 , ..., dn . Alors
la suite (X1 , X2 , ..., Xn ) est indépendante si et seulement si, pour tout u1 ∈ IRd1 , ..., un ∈ IRdn ,
Preuve. Supposons que les vecteurs aléatoires (X1 , X2 , ..., Xn ) sont indépendants. Alors pour
tout u1 ∈ IRd1 , ..., un ∈ IRdn , en appliquant le critère des fonctions bornées avec f1 (X1 ) =
eihu1 ,X1 i , ..., fn (Xn ) = eihun ,Xn i , on obtient
k=n
!
h Pn i Y
Φ(X1 ,X2 ,...,Xn ) (u1 , ..., un ) = IE ei k=1 huk ,Xk i = IE eihuk ,Xk i
k=1
k=n
Y
= IE eihuk ,Xk i = ΦX1 (u1 )...ΦXn (un ).
k=1
Réciproquement, si u1 ∈ IRd1 , ..., un ∈ IRdn et u = (u1 , ..., un ) ∈ IRd1 +...+dn . Soit X = (X1 , X2 , ..., Xn )
un vecteur aléatoire de dimension d1 + ... + dn de loi IPX , la condition Φ(X1 ,X2 ,...,Xn ) (u1 , ..., un ) =
ΦX1 (u1 )...ΦXn (un ) s’écrit en appliquant le théorème du transfert et celui de Fubini,
Z Z
ihu,xi
d1 +...+dn
e dIP(X1 ,X2 ,...,Xn ) (x) = d1 +...+dn
eihu,xi d[IPX1 ⊗ ... ⊗ IPXn ]
IR IR
Ainsi IP(X1 ,X2 ,...,Xn ) et IPX1 ⊗ ... ⊗ IPXn ont les mêmes fonctions caractéristiques et par suite
IP(X1 ,X2 ,...,Xn ) = IPX1 ⊗ ... ⊗ IPXn .
1 n y
pX (y) = n
n
y 2 −1 e− 2 I{y>0}
2 Γ( 2 )
2
Γ( n+1
2 ) 1
pX (t) = n √ ×
Γ( 2 ) nπ (1 + t2 ) n+1
2
n
Preuve. Exercice.
Chapter 4
Définition 4.1.2. On dit qu’un vecteur aléatoire X = (X1 , X2 , ..., Xd ) : Ω −→ IRd est un vecteur
gaussien si toute combinaison linéaire de ses coordonnées est une variable aléatoire gaussienne
réelle. C’est à dire si pour tous réels a1 , a2 , ..., ad , la variable aléatoire réelle a1 X1 +a2 X2 +...+ad Xd
est une variable aléatoire gaussienne.
Proposition 4.1.3. Soit (X1 , X2 , ..., Xd ) une suite de variable aléatoire réelle. Si le vecteur X =
(X1 , X2 , ..., Xd ) est une vecteur gaussien de dimension d, alors pour tout k = 1, 2, ..., d Xk est une
variable aléatoire réelle gaussienne.
La réciproque est fausse.
Preuve. Pour montrer que la réciproque est fausse, considérons le contre-exemple suivant:
Soient Y ∼ N (0, 1) et Z = εY où ε est une variable aléatoire indépendante de Y telle que
IP(ε = 1) = IP(ε = −1) = 21 . Déterminer la loi de Z et vérifier que IP(Y + Z = 0) = 12 . Conclure.
Proposition 4.1.4. Soit (X1 , X2 , ..., Xd ) une suite indépendantes de variable aléatoire réelle.
Si le vecteur X = (X1 , X2 , ..., Xd ) est une vecteur gaussien de dimension d si et seulment si pour
tout k = 1, 2, ..., d Xk est une variable aléatoire réelle gaussienne.
Preuve. (=⇒) Cela résulte de l adéfinition des vecteurs gaussiens. ( pas besoin de l’hypothèse
d’indépendance).
(⇐=) Si (X1 , X2 , ..., Xd ) est une suite indépendante de variable aléatoire réelle, alors pour tous
réels a1 , a2 , ..., ad , la suite (a1 X1 , a2 X2 , ..., ad Xd ) est indépendante. De plus si la variable aléatoire
réelle Xk ∼ N (mk , σk2 ), la variable aléatoire réelle ak Xk ∼ N (ak mk , a2k σk2 ). La variable aléatoire
réelle a1 X1 + a2 X2 + ... + ad Xd est alors une une variable aléatoire réelle gaussienne comme somme
de variables aléatoires réelles gaussiennes indépendantes.
et
h i
σY2 = IE (Y − mY )2 = IE (u1 (X1 − m1 ) + u2 (X2 − m2 ) + ... + ud (Xd − md ))2 [
X
= ui uj IE [(Xi − mi )(Xj − mj )]
1≤i,j≤d
X
= ui uj Cov 0 Xi , Xj ) = hu, D ui
1≤i,j≤d
On obtient
1
ΦX (u) = exp ihu, mi − hu, D ui
2
(⇐=) Soit X = (X1 , X2 , ..., Xd ) un vecteur aléatoire quelconque de fonction caractéristique définie
sur IRd par
1
ΦX (u) = exp ihu, mi − hu, D ui
2
Soit Y = a1 X1 + a2 X2 + ... + ad Xd une combinaison linéaire des composantes de X. Pour tout réel
t
ΦY (t) = IE(eitY ) = IE ei(ta1 X1 +ta2 X2 +...+tad Xd ) = ΦX (a1 t, a2 t, ..., ad t)
1
= exp iha, mi − t2 ha, D ai
2
où on a posé a = (a1 , a2 , ..., ad ). Ainsi pour tout n-uplet de réels (a1 , a2 , ..., ad ), la variable aléatoire
réelle a1 X1 +a2 X2 +...+ad Xd est une la variable aléatoire réelle gaussienne de loi N (ha, mi, ha, D ai).
X est bien un vecteur gaussien.
Définition 4.2.2. On appelle loi de Gauss-Laplace ou loi normale sur IRd de paramètres
m et D, la loi de probabilité d’un vecteur gaussien de dimension d d’espérance m et de matrice de
dispersion D. On note Nd (m, D).
Proposition 4.2.5. Soient m ∈ IRd et D une matrice carrée d’ordre d à coefficients réels,
symétrique et de type positif. Si D est inversible, alors X ∼ Nd (m, D) a pour densité sur IRd
1 1 ∗ −1
pX (x) = p exp − (x − m) D (x − m)
(2π)d det(D) 2
Exemple 4.2.6. Soit (X, Y ) un couple √de variables aléatoires réells admettant pour densité
2 3 1 2 2
l’application définie sur IR par f (x, y) = exp − (x − xy + y ) . On vérifie que
4π 2
1 − 12
2 2 x −1 x
(x − xy + y ) = (x, y) 1 = (x, y)D
−2 1 y y
4 2
3 3
où D = est la matrice de dispersion du vecteur (X, Y ). On déduit que (X, Y ) est
2 4
3 3
un vecteur gaussien de loi Nd (0, D). Aussi X et Y suivent la loi N1 (0, 34 ). Puisque D n’est pas
diagonale, X et Y ne sont pas indépendantes.
36 CHAPTER 4. VECTEURS ALÉATOIRES GAUSSIENS
Chapter 5
5.1 Convergence
Définition 5.1.1. Pour n −→ +∞, on dit qu’une suite (Xn )n≥1 de variables aléatoires à valeurs
dans IRd converge vers la variable X à valeurs dans IRd :
I Presque sûrement si IP (Xn −→ X) = IP ({ω : Xn (ω) −→ X(ω)}) = 1. C’est à dire les fonctions
Xn (ω) définies sur Ω convergent ponctuellement sur un sous-ensemble de Ω de probabilité 1 vers la
fonction X.
I En probabilité si ∀ε > 0, IP (|Xn − X| ≥ ε) tend vers 0 quand n −→ +∞.
I Dans L1 si les variables Xn , X sont intégrables et IE(|Xn −X|) tend vers 0 quand n −→ +∞.
I Dans L2 ( ou en moyenne quadratique) si les variables Xn , X sont de carré intégrables et
IE(|Xn − X|2 ) tend vers 0 quand n −→ +∞.
Remarque 5.1.2. Soit (Xn )n≥1 une suite de variables aléatoires réelles qui converge dans L1 vers X.
Alors lim IE(Xn ) = IE(X). En effet, comme Xn − X ≤ |Xn − X|, par linéaritét croissance de
n−→+∞
l’espérance, IE(Xn ) − IE(X) = IE(Xn − X) ≤ IE|Xn − X|. De même, par symétrie IE(X) − IE(Xn ) =
IE(X − Xn ) ≤ IE|X − Xn |. Ainsi |IE(Xn ) − IE(X)| ≤ IE|Xn − X|. Ce qui permet de conclure.
Théorème 5.1.3. (convergenge dominée). Soit (Xn )n≥1 une suite de variables aléatoires réelles
qui converge presque sûrement vers X. On suppose d eplus la suit est dominée au sen soù il existe
un evariable aléatoire Y intégrable telle que
∀n ≥ 1, IP(|Xn | ≤ Y ) = 1.
Alors X est intégrable et (Xn )n≥1 converge dans L1 vers X. Ce qui entraı̂ne en particulier que
lim IE(Xn ) = IE(X).
n−→+∞
Proposition 5.2.1. Soit (Xj )j≥1 une suite de variables aléatoires réelles indépendantes identique-
n
1X
ment distribuées ( (I.I.D) de carré intégrable. Alors la moyenne empirique Xj converge dans
n
j=1
L2 ( et donc dans L1 et en probabilité) vers l’espérance commune IE(X1 ).
5.3. FONCTION CARACTÉRISTIQUE ET CONVERGENCE EN LOI 39
Preuve.
2
n n
1 X X
IE (X¯n − IE(X1 ))2 =
IE Xj − IE Xj
n2
j=1 j=1
n
1 X
= V ar(Xj ) par indépendance des Xj
n2
j=1
V ar(X1 )
= −→n→+∞ 0
n
où U est une variable uniforme sur [0, 1]. Ainsi la suite (Un )n≥1 converge en loi vers U ∼ U[0, 1].
I Pour n ∈ IN∗ , Xn est une variable aléatoire uniformément répartie sur [0, 1/n]. Alors pour tout
f continue bornée,
Z 1
n
IE(f (Xn )) = n f (x)dx −→n→+∞ f (0).
0
Donc,la suite (Xn )n≥1 converge en loi vers X telle que IP(X = 0) = 1. δ0 la mesure de Dirac.
I Pour n ∈ IN, soit Tn une variable aléatoire exponentielle de paramètre λn > 0. On suppose que
la suite (λn )n converge vers λ > 0. Alors pour f : IR → IR continue bornée,
∀n ∈ IN, ∀x ≥ 0, |f (x)λn eλn x | ≤ g() = |f (x)|(sup λn )e(inf n −λn )x ,
n
où la fonction g est intégrable sur [0, +∞[. Par le théorème de la convergence dominée,
Z +∞
IE(f (Tn )) = f (x)λn e−λn x dx
0
Z +∞
converge vers f (x)λe−λ x dx = IE(f (T )) où T suit la loi exponentielle de paramètre λ > 0.
0
Ainsi (Tn )n converge vers T ∼ E(λ).
Proposition 5.3.7. Soit (Xn )n une suite de variables aéatoires à valeurs dans IRd converge en loi
vers X et ϕ : IRr → IRq une fonction continue. Alors la suite (ϕ(Xn ))n converge en loi vers ϕ(X).
Preuve. Soit g : IRq →R continue bornée. La fonction g ◦ ϕ : IRd → IR est continue bornée.
Doncla convergence en loi de (Xn )n≥1 vers X entraı̂ne que
lim IE[g(ϕ(Xn ))] = IE[g(ϕ(X))]
n→+∞
5.3. FONCTION CARACTÉRISTIQUE ET CONVERGENCE EN LOI 41
d
Théorème 5.3.8. La suite (Xn )n≥1 de variables aéatoires à valeurs dans IR converge en loi vers la
variable aéatoire X à valeurs dans IRd si et seulement si la fonction caractéristique de Xn converge
ponctuellement vers la la fonction caractéristique de X. C’st à dire
L
→ X ⇐⇒ ∀u ∈ IRd , ΦXn (u) → ΦX (u)
Xn −
Corollaire 5.3.9. Si la suite (Xn )n≥1 converge en probabilité vers X, alors elle converge en loi
vers X.
|ei∠u,Xn i − ei∠u,Xn i | = |ei∠u,Xn i − ei∠u,Xn i |I{|Xn −X|≥ε} + |ei∠u,Xn i − ei∠u,Xn i |I{|Xn −X|<ε}
≤ 2 × I{|Xn −X|≥ε} + |ei∠u,Xn i − ei∠u,Xn i |I{|Xn −X|<ε} .
Par suite
|ΦXn (u) − ΦX (u)| = |IE ei∠u,Xn i − ei∠u,Xn i | ≤ IE ei∠u,Xn i − ei∠u,Xn i ≤ 2IP (|Xn − X| ≥ ε) + |u|ε.
Uniformément en n, le second terme à gauche est arbitrairement petit tandis qu’à ε fixé le pre-
mier terme converge vers 0 quand n → +∞ ( dû à la convergence en probabilité). Ainsi, ∀u ∈
IRd , ΦXn (u) → ΦX (u).
Proposition 5.3.10. Si la suite (Xn )n≥1 de variable aléatoires à valeurs dans IRd converge en loi
vers la variable aléatoire X à valeurs dans IRd , alors
pour toute fonction f : IRd −→ IR bornée dont l’ensemble des points de discontinuité D vérifie
IP(X ∈ D) = 0.
Remarque 5.3.11. Il ne suffit pas que la suite (Xn )n converge en loi vers X et que la suite (Yn )n
converge en loi vers Y pour que la suite des couples (Xn , Yn )n converge en loi vers (X, Y ). En
1
exemple, soit Z la variable aléatoire telle IP(Z = −1) = IP(Z = 1) = et (Xn , Yn ) = (Z, (1)−n Z).
2
Alors la suite (Xn )n converge en loi vers Z. De même la suite (Yn )n converge en loi vers Z puisque
L(−Z) = L(Z). Mais pour la fonction continue bornée f (x, y) = min(|x − y|, 2) sur IR2 ,
0 si n est pair
IE ((f (Xn , Yn )) =
2 si n est impair
Théorème 5.3.12. (Slutsky) Soit (Xn , Yn )n une suite de vecteurs aléatoires à valeurs dans IRd1 ×
IRd2 telle que (Xn )n converge en loi( ou en probabilité ou presque-sûrement) vers une constante
a ∈ IRd1 et (Yn )n converge en loi vers Y . Alors (Xn , Yn )n converge en loi vers (a, Y ). En particulier
lorque d1 = d2 = 1, (Xn Yn )n converge en loi vers aY et lorsque d1 = d2 , (Xn + Yn )n converge en
loi vers a + Y .
42 CHAPTER 5. CONVERGENCE ET THÉORÈMES LIMITES
d1 d2
Preuve. Soit (u, v) ∈ IR × IR .
h i
|Φ(Xn ,Yn ) (u, v) − Φ(a,Y ) (u, v)| = |IE (eihu,Xn i − eihu,ai )eihv,Yn i + eihu,ai IE(eihv,Yn i − eihv,Y i |
≤ IE|eihu,Xn i − eihu,ai | + |ΦYn (v) − ΦY (v)|
La convergence en loi de Yn vers Y entraı̂ne que le second terme tend vers 0 quand n → +∞. En
outre la fonction x ∈ IRd1 7→ f (x) = |eihu,xi − eihu,ai | est continue et bornée. On déduit que le
premier terme converge vers IE(f (a)) = 0. On conclut ainsi que (Xn , Yn )8n converge en loi vers
(a, Y ).
Les cas particuliers proviennent de la Proposition ?? en remarquant que (x, y) ∈ IR × IR 7→ xy et
(x, y) ∈ IRd1 × IRd2 7→ x + y sont des fonctions continues.
√
n
n 1 X L
Xj − IE(X1 ) − → N (0, 1).
σ n
j=1
1 Pn
Preuve. On note X̄n = n j=1 Xj . Soit u ∈ IR,
1 Pn
(X −IE(Xj ))
h i
iu √
Φ √n (u) = IE e σ n j=1 j
σ (X¯n −IE(X1 ))
n
1
X −IE(Xj ))
IE e σ n ( j
h i
iu √
Y
= par indépendance des Xj
j=1
in
1
X −IE(X1 ))
IE e σ n ( 1
h
iu √
= car les Xj ont même loi ,
n
u
= ΦX1 −IE(X1 ) √ .
σ n
σ2 2
ΦX1 −IE(X1 ) (v) = 1 − v + o(v 2 ).
2
Donc pour n grand,
u2
u 1
ΦX1 −IE(X1 ) √ =1− + o( )
σ n 2n n
Par suite n
u2
1 − u2
2
Φ √
n (u) = 1 − + o( ) →n→+∞ e = ΦY (u).
σ (Xn −IE(X1 ))
¯
2n n