0% ont trouvé ce document utile (0 vote)
15 vues34 pages

Probaavancee 2

Ce document traite des probabilités avancées, en commençant par les espaces de probabilité finis et les notions fondamentales associées. Il aborde des concepts tels que la probabilité conditionnelle, l'indépendance des événements, ainsi que les variables aléatoires discrètes. Des exercices pratiques sont également inclus pour illustrer les concepts discutés.

Transféré par

Kouassi Francis Kouame
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
15 vues34 pages

Probaavancee 2

Ce document traite des probabilités avancées, en commençant par les espaces de probabilité finis et les notions fondamentales associées. Il aborde des concepts tels que la probabilité conditionnelle, l'indépendance des événements, ainsi que les variables aléatoires discrètes. Des exercices pratiques sont également inclus pour illustrer les concepts discutés.

Transféré par

Kouassi Francis Kouame
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

cours de probabilitées avancées

A. Elouaflin11

1. UFR Maths-Info, Université de Cocody, 22 BP 582 Abidjan, Côte d’Ivoire

June 19, 2021

1
e-mail: elabouo@[Link]
2
Chapter 1

Espace de probabilité fini

1.1 Notions fondamentales


1.1.1 Probabilité sur un espace fini, événements
On s’interesse à une expérience alátoire qui conduit à la réalisation d’un seul résultat parmi un
nombre fini de résultats possibles ω1 , ω2 , ..., ωn . On note Ω = {ω1 , ω2 , ..., ωn } l’ensemble de ces
résultats.

Définition 1.1.1. Une probabilité IP sur Ω = {ω1 , ω2 , ..., ωn } est une famille (p1 , p2 , ..., pn ) de réels
vérifiants
n
X
∀ 1 ≤ k ≤ n, 0 ≤ pk ≤ 1, et pk = 1
k=1
X
On attribue à tout événement A ⊂ Ω, le nombre IP(A) = pk qui est appelé probabilité de
k: ωk ∈A
l’événement A.

Exemple 1.1.2. Jet de deux dés à six faces: Ω = {(i, j) : 1 ≤ i, j ≤ 6} où i désigne la valeur de la
face supérieure du premier dé et j celle du second. Les dés ne sont pas pipés. On munit Ω de la
1
pondération suivantes: ∀ 1 ≤ i, j ≤ 6, p(i,j) = .
36
Soit A l’événement: les valeurs des deus dés sont identiques. On a A = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}
6
X 6 1
et IP(A) = p(i,i) = = .
36 6
i=1
On note S la somme des deux dés et {S = k} l’événement {(i, j) : S(i, j) = k}. On a S(i, j) = i + j.
Calculer IP(S = k) pour k = 2, ..., 12.

Terminologie concernant les événements

J Si IP(A) = 0, l’événement A est dit négligeable.


J Si IP(A) = 1, l’événement A est dit presque sûr.
J On appelle événement contraire de A et on note Ac l’événement Ω\A.
J Si A, B ⊂ Ω, l’événement A et B ( réalisé lorsque A et B le sont) est noté A ∩ B.
J L’événement A ou B ( réalisé lorsque A ou B le sont) est noté A ∪ B.

Probabilité des événements ∅, Ω, Ac , A ⊂ B et A ∪ B


4 CHAPTER 1. ESPACE DE PROBABILITÉ FINI
J IP(∅) = 0.
J IP(Ω) = 1.
J IP(Ac ) = 1 − IP(A) vu que A ∪ Ac = Ω et A ∩ Ac = ∅. Donc 1 = IP(Ω) = IP(A) + IP(Ac ).
J Si A ⊂ B, on note B\A = B ∩ Ac . Alors B = A ∪ (B\A) avec A ∩ (B\A) = ∅. D’où
IP(B\A) = IP(B) − IP(A)
J A ∪ B = (A ∩ B ) ∪ (A ∩ B) ∪ (Ac ∩ B) = (A\A ∩ B) ∪ (A ∩ B) ∪ (B\A ∩ B). Ces ensembles
c

étants deux à deux disjoints, on obtient donc,


IP(A∪B) = IP(A\A∩B))+IP(A∩B)+IP(B\A∩B) = IP(A)−IP(A∩B)+IP(A∩B)+IP(B)−IP(A∩B).
Ainsi,
IP((A ∪ B) = IP(A) + IP(B) − IP(A ∩ B)
Fonction indicatrice

On appelle fonction indicatrice de l’événement A la fonction IA : Ω → {0, 1} définie par



1 si ω ∈ A
∀ω ∈ Ω, IA (ω) =
0 sinon
Exercise 1.1.3. Montrer que IA∩B = IA .IB ; IAc = 1 − IA et IA∪B = IA + IB − IA∩B .

1.1.2 Probabilités uniformes


Dans le cas particulier où tous les résultats possibles jouent le même rôle, ces résultats doivent
1
avoir la même pondération . On dit alors qu’ils sont équiprobables. Pour tout événement
card(Ω)
A ⊂ Ω, on a
X 1 Card(A)
IP(A) = =
card(Ω) card(Ω)
k,ωk ∈A
Cette probabilité s’appelle probabilité uniforme sur Ω.
Exemple 1.1.4. Dans le cas du jet de deux dés non pipés, Ω = {(i, j) : 1 ≤ i, j ≤ 6} est muni de
la probabilité uniforme.
Remarque 1.1.5. Si on s’interesse à la somme des deux dés, on peut choisir Ω = {2, 3, 4, ..., 12},
ensemble des valeurs prises par cette somme. Mais fautes de propriétés de symétrie, on ne sait pas
munir cet espace d’une probabilité naturelle.
En travaillant sur l’espace plus gros {(i, j) : 1 ≤ i, j ≤ 6} des couples des valeurs des deux dés muni
de la probabilité uniforme, on construit une pondération naturelle sur le svaleurs de lka somme des
deux dés. Cette pondération n’a rien d’uniforme.
Le choix de l’espace de probabilité sur lequel on travaille est très important.
Dans le cas des probabilités uniformes, les calculs se ramènent à du dénombrement.

Rappels de dénombrement

On se donne n, k ∈ IN∗ avec k ≤ n.


J Le nombre de permutations d’un ensemble à n éléments est n!.
J Le nombre d’injections d’un ensemble à k éléments dans un ensembles à n éléments est
n!
Akn =
(n − k)!
J Le nombre de parties à k éléments d’un ensemble à n éléments est
n!
Cnk =
k!(n − k)!
1.2. PROBABILITÉ CONDITIONNELLE ET INDÉPENDANCE 5
Exercise 1.1.6. Dans une classe de n ≤ 365 élèves, quelle est la probabilité de l’événement A:
deux élèves au moins sont nés le même jour.

1.2 Probabilité conditionnelle et indépendance


1.2.1 Probabilité conditionnelle
Définition 1.2.1. Soit Ω muni d’une probabilité IP et A, B ⊂ Ω.La probabilité conditionnelle de
l’événement A sachant l’événement B est notée IP(A|B) et est d’éfinie par

IP(A∩B)

 IP(B) si IP(B) > 0

IP(A|B) =

IP(A) sinon

Exercise 1.2.2. 1. Dans une famille qui comporte deux enfants, l’un est une fille. On cherche la
probabilité que l’autre soit un garçon.
2. On suppose maintenant que l’aı̂né des enfants est une fille. Quelle est la probabilité que l’autre
soit un garçon.

Exercise 1.2.3. Parmi 10 pièces mécaniques, 4 sont défectueuses. on prend successivement deux
pièces au hasard dans le lot sans remise. quelle est la probabilité pour que les deux pièces soient
correctes.

Remarque 1.2.4. De façon naturelle, on peut utiliser la définition sous la forme IP(A ∩ B) =
IP(A|B)IP(B). Ce qui se généralise en IP(A1 ∩A2 ∩...∩Am ) = IP(Am |A1 ∩A2 ∩...∩Am−1 ).IP(Am−1 |A1 ∩
A2 ∩ ... ∩ Am−2 )....IP(A2 |A1 )IP(A1 )

Proposition 1.2.5. ( Formule de Bayes). Soient B1 , ..., Bm une partition de Ω ( i.e des sous-
ensembles disjoints de Ω dont la réunion est ω) et A ⊂ Ω tel que IP(A) > 0. Alors pour tout
1 ≤ i ≤ m,
IP(A|Bi )IP(Bi )
IP(Bi |A) = Pm
j=1 IP(A|Bj )IP(Bj )

Exercise 1.2.6. Pour dépister une maladie, on applique un test sanguin. Si le patient est atteint,
le test donne un résultat positif dans 99 pour cent des cas. Mais le test est également positif pour
2 pour cent des personnes en bonne santé. La proportion de personnes malades dan sl apopulation
soumise au test est de 10−3 . calculer la probabilité pour qu’un patient soit en bonne santé sachant
que le résultat de son test est positif.

1.2.2 Indépendance
Définition 1.2.7. Soit Ω muni d’une probabilité IP. Deux événements A et B sont dits indépendants
si

IP(A ∩ B) = IP(A)IP(B)

ou encore IP(A|B) = IP(A) ou IP(B|A) = IP(B).

Définition 1.2.8. m événements A1 , ..., Am sont dits indépendants si


!
\ Y
∀I ⊂ {1, ..., m}, IP Ai = IP(Ai )
i∈I i∈I
6 CHAPTER 1. ESPACE DE PROBABILITÉ FINI
Remarque 1.2.9. I Il ne suffit pas que IP(A1 ∩ A2 ∩ ... ∩ Am ) = m
Q
i=1 IP(Ai ) pour que les événements
soient indépendants.
I Pour que 3 événements soient indépendants, il ne suffit pas qu’ils soient 2 à 2 indépendants.
En effet pour le jet de deux pièces à Pile ou Face: Ω = {P P, P F, F P, F F } où P F signifie que la
première pièce donne Pile et la seconde Face. On muni cet espace de la probabilité uniforme. On
considère les événements A : première pièce donne Pile , B : deuxième pièce donne Face et C les
deux pièces donnent le même résultat.
On a
A = {P P, P F }; B = {P F, F F }; C = {P P, F F }; A ∩ B = {P F }; A ∩ C = {P P }; B ∩ C = {F F };
1 1
A ∩ B ∩ C = ∅. IP(A) = IP(B) = IP(C) = ; IP(A ∩ B) = = IP(A)IP(B);
2 4
1 1
IP(A ∩ C) = = IP(A)IP(C); IP(B ∩ C) = = IP(B)IP(C).
4 4
Mais IP(A ∩ B ∩ C) = 0 6= IP(A)IP(B)IP(C). Les événements A, B et C sont 2 à 2 indépendants
mais pas indépendants.
Chapter 2

Variables aléatoires discrètes

2.1 Espace de probabilité


Définition 2.1.1. Une tribu A sur Ω est une classe de parties de Ω qui vérifie les trois propriétés
suivantes:
i). ∅, Ω ∈ A.
ii). A ∈ A ⇒ Ac ∈ A. S T
iii). Si (Ai )i∈I est une famille dénombrable d’éléments de A, alors i∈I Ai et i∈I Ai sont dans A.
Les éléments de A sont appélés événements.
Exemple 2.1.2. J {∅, Ω} est la plus petite tribu sur Ω. On l’appelle tribu grossière.
J P(Ω) est la plus grosse tribu sur Ω. on l’appelle la tribu discrète.
J Si A ⊂ Ω, {∅, A, Ac , Ω} est une tribu sur Ω.
Définition 2.1.3. Soit Ω muni d’une tribu A. on appelle probabilité sur (Ω, A est une application
IP : A −→ [0, 1] qui vérifie
i). IP(Ω) = 1
ii). (la σ-additivité): Si (Ai )i∈I est une famille dénombrable d’éléments de A deux à deux disjoints
( ∀i 6= j ∈ I, Ai ∩ Aj = ∅), alors
!
[ X
IP Ai = IP(Ai ).
i∈I i∈I

Le triplet (Ω, A, IP) s’appelle espace de probabilité.

2.2 Variables aléatoires discrètes


2.2.1 Famille sommable
Dans toute cette section, I désigne un ensemble dénombrable.

Notations
S
Soit Ω un ensemble, ATn ⊂ Ω et f : Ω −→ IR. On écrit An ↑ A si An ⊂ An+1 et A = An ; An ↓ A
si An ⊃ An+1 et A = An ; fn ↑ f si fn ≤ fn+1 et f = sup fn ; fn ↓ f si fn ≥ fn+1 et f = inf fn ;

Enumération
On appelle énumération de I toute bijection φ de IN sur I. Soient (ai , i ∈ I) une famille de nombres
réels ou complexes et φ une énumération de I. On pose
Snφ = aφ(0) + aφ(1) + ... + aφ(n)
8 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
Famille sommable positive
¯ +.
On suppose que pour tout i ∈ I, ai ≥ 0. Alors la suite Snφ est croissante et S φ = lim ↑ Snφ ∈ IR
Si ψ est une autre énumération de I, on a, pour n fixé et m assez frand,

{aφ(0) , aφ(1) , ..., aφ(n) } ⊂ {aψ(0) , aψ(1) , ..., aψ(m) }.

Ainsi Snφ ≤ Sm
ψ
≤ S ψ . D’où S φ ≤ S ψ . En changeant le rôle de φ et ψ, on obtient également
S ≤ S et finalement S φ = S ψ .
ψ φ

Théorème 2.2.1. Soit (ai , i ∈ I) une famille de nombre réels positifs. Alors, pour toute énumération
φ deXI, la suite Snφ converge en croissant vers un nombre S ∈ IR ¯ + indépendant de φ. On note
S= ai . Si S < +∞, la famille est dite sommable.
i∈I
X X
Proposition 2.2.2. (i) Si In ↑ I, In fini; ai ↑ ai .
i∈In i∈I
P X
(ii) Pour tout A < i∈I ai , il existe J ⊂ I, J fini tel que ai > A.
X X i∈J
(iii) Si 0 ≤ ai ≤ bi ; ai ≤ bi .
i∈I i∈I X X X
(iv) Pour α ≥ 0, β ≥ 0, ai ≥ 0, bi ≥ 0, on a (αai + βbi ) = α ai + β bi
i∈I i∈I i∈I

Proposition 2.2.3. (Passage à la limite croissante).


Soit pour tout n ∈ IN, (ai (n), i ∈ I) une famille de nombre réels positifs. On suppose que, pour
tout i ∈ I, ai (n) ↑ ai lorsque n −→ +∞. Alors
X X
ai (n) ↑ ai
i∈I i∈I

Proposition 2.2.4. (Sommation par paquets).


Soient (ai , i ∈ I) une famille S
de nombre réels positifs et (Ij , j ∈ J) une partition de I. ( les Ij sont
deus à deux disjoints et I = j∈J Ij ). On a
X XX
ai = ai
i∈I j∈J i∈Ij

Définition 2.2.5. (cas général). X


Une famille (ai , i ∈ I) de nombre réels ou complexes est dit sommable si |ai | < +∞.
i∈I

2.2.2 Espace de probabilité discret


Définition 2.2.6. Soit E un ensemble dénombrable. Une probabilité IP sur E est une famille
(p(a), a ∈ E) de réels vérifiants
X
0 ≤ p(a) ≤ 1, et p(a) = 1
a∈E=1
X
On attribue à tout événement A ⊂ E, le nombre IP(A) = p(a) qui est appelé probabilité de
a∈A
l’événement A.
2.2. VARIABLES ALÉATOIRES DISCRÈTES 9
Proposition 2.2.7. IP est une application de P(E) dans [0, 1] qui vérifie:
(i) IP(E) = 1.
(ii) (A ∪ B) = IP(A) + IP(B) si A ∩ B = ∅.
(iii) IP(An ) ↑ IP(A) si An ↑ A.
(iv) Pour toute famille (An , n ∈ IN) de sous-ensembles de E deux à deux disjoints,
[ X
IP( An ) = IP(An )
n∈IN n∈IN
.
Preuve. Exercice.

2.2.3 Définition
Définition 2.2.8. On appelle variable aléatoire discrète une application X : Ω −→ F où F est un
ensemble dénombrable (F est égal IN ou IZ ou à une partie de IZ. Pour x ∈ F , on note {X = x}
l’éveément {ω : X(ω) = x}. La famille des nombres (IP(X = x))x∈F s’appelle la loi de X.
Exemple 2.2.9. J Dans le cas du jet de dés, la somme S des deux dés est une variable aléatoire
discrète à valeurs dans F = {2, 3, 4, ..., 12}}.
J Soit A ⊂ Ω un événement. Sa fonction indicatrice IA définie par

1 si ω ∈ A
∀ω ∈ Ω, IA (ω) =
0 sinon
est une variable aléatoire discrète de loi:
IP(IA = 1) = IP(A) et IP(IA = 0) = 1 − IP(A).

2.2.4 Indépendance
Définition 2.2.10. J Deux variables aléatoires discrètes X et Y à valeurs respectivement dans F
et G sont dits indépendantes si
∀x ∈ F, ∀y ∈ G, IP(X = x, Y = y) = IP(X = x).IP(Y = y).
J n variables aléatoires discrètes X1 , X2 , ...., Xn à valeurs respectivement dans F1 , F2 , ..., Fn sont
dits indépendantes si
Yn
∀x1 ∈ F1 , ..., ∀xn ∈ Fn , IP(X1 = x1 , ..., Xn = xn ) = IP(X = xi ).
i=1
J une famille quelconque de variables aléatoires discrètes est dite indépendante si tout sous-
famille finie est indépendante.
Exemple 2.2.11. Jet de 2 dés: Ω = {(i, j);q uad1 ≤ i, j ≤ 6} muni de la probabilité uniforme.
Soit X1 la valeur du premier dé et X2 celle du second. On a X1 (i, j) = i et X2 (i, j) = j et
1
∀1 ≤ i ≤ 6 IP(X1 = i) = IP(X2 = i) =
6
Comme
1 11
∀1 ≤ i, j ≤ 6 IP(X1 = i, X2 = j) = = = IP(X1 = i)IP(X2 = j),
36 66
les variables X1 et X2 sont indépendantes.
Remarque 2.2.12. J Si les variables aléatoires discrètes X1 , ..., Xn sont indépendantes, pour 1 ≤
d < n, les deux variables aléatoires discrètes (X1 , ..., Xd ) et (Xd+1 , ..., Xn ) sont indépendantes.
J Ce résultat se généralise de l afaçon suivante: ∀m ∈ {1, ..., n−1}, ∀1 ≤ d1 < d2 < ... < dm < n, les
variables aléatoires discrètes (X1 , ..., Xd1 ), (Xd1 +1 , ..., Xd2 ) (Xdm −1 , ..., Xdm ) et (Xdm +1 , ..., Xn )
sont indépendantes.
10 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
2.2.5 Loi marginale
Soit X une variable aléatoire discrète à valeurs dans F et Y une variable aléatoire discrète à valeurs
dans G. Comme le produit de deux ensembles dénombrables est dénombrable, (X, Y ) est une une
variable aléatoire discrète à valeurs dans F × G. Mais la connaissance de l aloi de X et d el aloi
de Y ne suffit pas pour connaı̂tre la loi de (X, Y ). Il faut rajouter de l’information comme par
exemple le caractère indépendant pour obtenir la loi du couple.

Exemple 2.2.13. Si X suit une loi de Bernouli B(1/2). Alors, Y = 1 − X suit la même loi
de Bernoulli B(1/2). On note L(X) = L(Y ). En considérant les couples (X, X) et (X, Y ), les
premières coordonnées ont même loi que les secondes coordonnées. Mais
1
IP ((X, Y ) = (1, 0)) = IP(X = 1) = 6= 0 = IP ((X, X) = (1, 0))
2
En revanche, si l’on connaı̂t la loi du couple discrèt (X, Y ), on en déduit la loi de X et celle de
Y par la formule dite de loi marginale.

Proposition 2.2.14. Soit (X, Y ) un couple discrèt à valeurs dans F × G. Alors


X
∀x ∈ F, IP(X = x) = IP(X = x, Y = y).
y∈G

On somme sur les valeurs prises par la variable Y dont on souhaite se débarrasser.
[
Preuve. Il suffit de remarquer que {X = x} = {X = x, Y = y} est une réunion disjointe de
y∈G
famille dénombrable et d’utiliser la σ-additivité.

2.2.6 Espérance et Variance


Espérance
Définition 2.2.15. SoitX X : Ω −→ F ⊂ IR une variable aléatoire discrète à valeurs réelles. Elle
est dite intégrable si |x|IP(X = x) < ∞. Dans ce cas, on définit son espérance IE(X) par
x∈F
X
IE(X) = xIP(X = x)
x∈F

Remarque 2.2.16. I L’intégrabilité et l’espérance d’une variable aléatoire ne dépendent que de sa


loi: L(X) = L(Y ) ⇒ IE(X) = IE(Y ).
I X est intégrable si et seulement si |X| l’est et dans ce cas, |IE(X)| ≤ IE(|X|).
I L’espérance d’une constante est égale à cette constante.
I Soit A un événement. On a IE(IA ) = IP(A)

Proposition 2.2.17. 1. Linéarité Si X et Y sont deux variables aléatoires discrètes à valeurs


réelles intégrables et λ ∈ IR, alorsX + λY est intégrable et IE(X + λY ) = IE(X) + λIE(Y ).
2. Condition suffisante d’intégrabilité Si X et Y sont deux variables aléatoires discrètes à
valeurs réelles telles que IP(|X| ≤ |Y |) = 1 et Y est intégrable, alors X l’est aussi.
3. Positivité Si X est une variable aléatoire discrète à valeurs réelles intégrable et presque
sûrement positive au sens où IP(X ≥ 0) = 1, alors IE(X) ≥ 0 et IE(X) = 0 ⇒ IP(X = 0) = 1.
4. Si X et Y sont deux variables aléatoires discrètes à valeurs réelles intégrables telles que
IP(X ≥ Y ) = 1, alors IE(X) ≥ IE(Y ).

Preuve. Exercice
2.2. VARIABLES ALÉATOIRES DISCRÈTES 11
Théorème 2.2.18. Soit X : Ω −→ F ⊂ IR uneX variable aléatoire discrète et f : F −→ IR. Alors
la variable f (X) est intégrable si et seulment si |f (x)|IP(X = x) < +∞ et alors
x∈F
X
IE(f (X)) = f (x)IP(X = x)
x∈F
Proposition 2.2.19. Soient X et Y sont deux variables aléatoires discrètes à valeurs respective-
ment dans F et G.
1. Si X et Y sont indépendantes alors pour toutes fonctions f : F −→ IR et g : G −→ IR telles que
f (X) et g(Y ) sont intégrables, alors f (X)g(Y ) est intégrable et IE (f (X)g(Y )) = IE(f (X))IE(g(Y )).
2. Inversement, si pour toutes fonctions f : F −→ IR et g : G −→ IR bornées, IE (f (X)g(Y )) =
IE(f (X))IE(g(Y )), alors X et Y sont indépendantes.
Preuve. Exercice

Variance
Définition 2.2.20. Soit X : Ω −→ F ⊂ IR une variable aléatoire discrète à valeurs réelles. Soit
p ∈ IN∗ .
1. Si IE(|X|p ) < +∞, alors IE(|X|
X
p ) s’appelle le moment absolu d’ordre p de X et IE(X p ) le

moment d’ordre p de X. On a |x|p IP(X = x).


x∈F
2. Si IE(X 2 ) < +∞, on définit la variance de X par
h i
V ar(X) = IE (X − IE(X))2
3. La racine carrée de la variance est appelée écart-type.
La variance et l’écart-type mesurent l’étalement de la variable X autour de son espérance: plus ils
sont grands et plus X est étalée.
Exercise 2.2.21. 1. Montrer que V ar(X) = IE(X 2 ) − (IE(X))2 .
2. ∀a, b ∈ IR, V ar(aX + b) = a2 V ar(X).
Proposition 2.2.22. Soit X1 , ..., Xn des variables aléatoires de carré intégrables. Alors X1 + ... +
Xn
Xn est de carré intégrable et si les Xi sont indṕendantes, alors V ar(X1 + ... + Xn ) = var(Xi )
i=1
Preuve. On a (X1 + ... + Xn ≤ )2 n(X12 + ... + Xn2 ). On déduit que X1 + ... + Xn est d ecarré
intégrable. Par linéarité de l’espérance,
 !2 
n
X
V ar(X1 + ... + Xn ) = IE  (Xi − IE(Xi )) 
i=1
 
n
X
= IE  (Xi − IE(Xi ))(Xj − IE(Xj ))
i,j=1

Si Y et Z sont deux variables de carré intégrable, comme |Y Z| ≤ (Y 2 + Z 2 )/2, leur produit Y Z


est intégrable. Donc chaque terme (Xi − IE(Xi ))(Xj − IE(Xj )) est intǵrable et par linéarité de
l’espérance,
n
X Xn Xn
V ar(X1 + ... + Xn ) = V ar(Xi ) + IE ((Xi − IE(Xi ))(Xj − IE(Xj )))
i=1 i=1 i6=j, j=1

Par indépendance des variables X1 , ..., Xn , on a pour i 6= j IE ((Xi − IE(Xi ))(Xj − IE(Xj ))) = 0.
La preuve est complète.
12 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
2.3 Lois usuelles
Loi binomiale

Soit n ∈ IN∗ , C’est la loi d’une variable aléatoire à valeurs dans {0, 1, ..., n} telle que

IP(X = k) = Cnk pk (1 − p)n−k , k = 0, 1, ..., n; 0 < p < 1.

Elle est appelée loi binomiale de paramètre n, p et notée B(n, p). On écrit X ∼ B(n, p). En
particulier si X ∼ B(1, p), on dit que X est une variable aléatoire de Bernoulli.

n n
X X X (n − 1)!
IE(X) = kIP(X = k) = kCnk pk (1 − p)n−k = np pk−1 (1 − p)n−k
(k − 1)!(n − k)!
k≥0 k=0 k=0
n−1
X
i
= np Cn−1 pi (1 − p)n−1−i = np(p + (1 − p))n−1 = np
i=0

X n
X n
X
2 2
IE(X ) = k IP(X = k) = k(k − 1)Cnk pk (1 − p) n−k
+ kIP(X = k)
k≥0 k=2 k=1
n
X (n − 2)!
= n(n − 1)p2 pk−2 (1 − p)n−k + np
(k − 2)!(n − k)!
k=2
n−2
X
= n(n − 1)p2 i
Cn−2 pi (1 − p)n−2−i + np = n(n − 1)p2 + np.
i=0

On a alors V ar(X) = n(n − 1)p2 + np − (np)2 = np(1 − p).

Loi de Poisson

C’est la loi d’une variable aléatoire à valeurs dans IN telle que

λk
IP(X = k) = e−λ , k ∈ IN; λ > 0.
k!

Elle est appelée loi de Poisson de paramètre λ et se note P(λ). On écrit X ∼ P(λ).

∞ ∞
X X λk X λk−1
IE(X) = kIP(X = k) = ke−λ = λeλ =λ
k! (k − 1)!
k≥0 k=0 k=0

∞ ∞
X X λk X
IE(X 2 ) = k 2 IP(X = k) = k(k − 1)e−λ + kIP(X = k)
k!
k≥0 k=2 k=0

X λk−2
= λ2 e−λ = λ2 + λ
(k − 2)!
k=2

On a alors V ar(X) = λ2 + λ − λ2 = λ.
2.4. FONCTION GÉNÉRATRICE DES VARIABLES ALÉATOIRES ENTIÈRES 13
Loi géométrique
C’est la loi d’une variable aléatoire à valeurs dans IN telle que

IP(X = k) = (1 − p)k−1 p, k ∈ IN∗ ; 0 < p < 1.

Elle est appelée loi géométrique de paramètre p et se note G(p). On écrit X ∼ G(p). C’est la loi du
temps du premier succès dans une suite d’expériences aléatoires indépendantes où la probabilité de
succès est p.
∞ ∞
!0
X X X
IE(X) = kIP(X = k) = k(1 − p)k−1 p = p xk
k≥0 k=1 k=0 |(x=1−p)
 0
1 1
= p =
1−x |(x=1−p) p

X ∞
X ∞
X
IE(X 2 ) = k 2 IP(X = k) = k(k − 1)(1 − p)k−1 p + kIP(X = k)
k≥0 k=2 k=0

!00
X 1
= p(1 − p) xk +
p
k=0 |(x=1−p)
2 1 2 1 2(1 − p) 1
= p(1 − p) 3
+ = p(1 − p) 3 + = +
(1 − x) |(x=1−p) p p p p2 p

2(1 − p) 1 1 1−p
On a alors V ar(X) = + − 2 =
p2 p p p2

2.4 Fonction génératrice des variables aléatoires entières


Définition 2.4.1. Soit X : Ω −→ IN une variable aléatoire discrète à valeurs enitières. On appelle
fonction génératrice de X la fonction gX : [0, 1] −→ IR définie par
X
gX (s) = IE(sX ) = sn IP(X = n).
n∈IN
X X
Comme IP(X = n) < +∞, la série entière sn IP(X = n) = gX (s) a un rayon de
n∈IN n∈IN
convergence inférieur ou égal à 1, est C ∞ sur [0, 1].
Proposition 2.4.2. La fonction génératrice gX détermine la loi de X. En fait
1 (n)
IP(X = n) = g (0)
n! X
Exemple 2.4.3. a. Loi Binomiale B(n, p). On a
X n
X
gX (s) = n
s IP(X = k) = Cnk pk sk (1 − p)n−k = (ps + (1 − p))n .
k∈IN k=0

b. Loi de Poisson P(λ). On a


X X λk sk
gX (s) = sn IP(X = k) = e−λ = eλ(s−1) .
k!
k∈IN k≥0
14 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
b. Loi géométrique G(p). On a

X X X X ps
gX (s) = sn IP(X = k) = (1−p)k−1 psk = ps ((1−p)s)k−1 = ps ((1−p)s)l = .

1 − (1 − p)s
k∈IN k>0 k>0 l=0

Proposition 2.4.4. i). IE(X) < +∞ si et seulement si gX est dérivable à gauche en 1, et dans ce
0 (1).
cas, on a IE(X) = gX
2
ii). IE(X ) < +∞ si et seulement si gX est deux fois dérivable à gauche en 1, et dans ce cas, on a
IE(X(X − 1)) = gX” (1).

Preuve. (i). On a
gX (s) − gX (1) X sk − 1 X X
= IP(X = k) = IP(X = k)(1+...+sk−1 ) ↑ kIP(X = k) quand s ↑ 1
s−1 s−1
k≥0 k≥0 k≥0

(ii). Si IE(X 2 ) < +∞, 0 (1) < +∞. Alors quand s ↑ 1,


IE(X) < +∞ et gX
0 0
gX (s) − gX (1) X sk−1 − 1 X X
= kIP(X = k) = kIP(X = k)(1+...+sk−2 ) ↑ k(k−1)IP(X = k) = IE(X(X−
s−1 s−1
k≥0 k≥0 k≥0

Proposition 2.4.5. Soient X et Y deux variables à valeurs dans IN indépendants. Alors pour tout
s ∈ [0, 1],
gX+Y (s) = gX (s)gY (s).
Exercise 2.4.6. Soit (Xi )i≥1 une suite de variables entières indépendantes et identiquement dis-
tribuées et N une variable aléatoire entière indépendante de la suite. On pose

 X1 + ... + XN si N ∈ IN∗

S=
0 si N = 0

Exprimer gS (u) en fonction de gX1 (u) et gXN (u). En déduire la loi de S lorque N suit la loi
géométrique de paramètre p et les Xi la loi géométrique de paramètre q.

2.5 Loi et espérance conditionnelles


Définition 2.5.1. Soient X et Y deux variables aléatoires discrètes à valeurs respectives dans F
et G. Pour y ∈ G, on appelle loi conditionnellle de X sachant Y = y la famille des nombres
(IP(X = x|Y = y))x∈F .
Proposition 2.5.2. Les variables X et Y sont indépendantes si et seulement si la loi conditionnelle
de X sachant Y = y n edépend pas de y ∈ G.
Preuve. ⇒ La condition nécessaire est immédiate.
⇐ La condition suffisante. Pour tout x ∈ F , il existe µ(x) tel que ∀y ∈ G,

IP(X = x|Y = y) = µ(x)


À x fixé, en multipliant par IP(Y = y) et en sommant sur y ∈ G, on obtient
X
IP(Y = y)IP(X = x|Y = y) = IP(X = x) = µ(x).
y∈G

Par suite, IP(X = x).IP(Y = y) = µ(x).IP(Y = y) = IP(X = x, Y = y)


2.5. LOI ET ESPÉRANCE CONDITIONNELLES 15
Définition 2.5.3. Soient X et Y deux variables aléatoires discrètes à valeurs respectives dans F
et G et f : F × G −→ IR telle que f (X, Y ) est intégrable. On appelle espérance conditionnelle de
f (X, Y ) sachant Y et on note IE (f (X, Y )|Y ) la variable aléatoire discrète
X
IE (f (X, Y )|Y ) = ψ(Y ) où ∀y ∈ G, ψ(y) = f (x, y)IP(X = x|Y = y).
x∈F

Lorsque X est à valeurs réelles intégrable, en choisissant f (x, y) = x, on obtient


X
IE (X|Y ) = ψ(Y ) où ∀y ∈ G, ψ(y) = xIP(X = x|Y = y).
x∈F

Proposition 2.5.4. On suppose que f (X, Y ) est intégrable. Pour toute fonction g : G −→ IR telle
que f (X, Y )g(Y ) est intégrable, la variable aléatoire IE (f (X, Y )|Y ) g(Y ) est intégrable et on a
IE [IE (f (X, Y )|Y ) g(Y )] = IE (f (X, Y )g(Y ))
Preuve.X Pour l’intégrabilité de IE (f (X, Y )|Y ) g(Y ), on remargque que ∀y ∈ G, |ψ(y)g(y)| ≤
|g(y)| |f (x, y)|IP(X = x|Y = y). Il vient
x∈F
X X X
|ψ(y)g(y)|IP(Y = y) ≤ |g(y)| |f (x, y)|IP(X = x|Y = y)IP(Y = y)
y∈G y∈G x∈F
X
= |g(y)||f (x, y)|IP(X = x, Y = y) = IE|(f (X, Y )||g(Y )| < +∞
x∈F,y∈G

En outre,
X
IE [IE (f (X, Y )|Y ) g(Y )] = g(y)ψ(y)IP(Y = y)
y∈G
!
X X
= g(y) f (x, y)IP(X = x|Y = y) IP(Y = y)
y∈G x∈F
X
= f (x, y)g(y)IP(X = x, Y = y) = IE (f (X, Y )g(Y ))
x∈F,y∈G

Corollaire 2.5.5. Si la variable f (X, Y ) est intégrable, alors l’espérance conditionnelle IE(f (X, Y )|Y )
est aussi intégrable et IE [IE(f (X, Y )|Y ] = IE(f (X, Y )). En outre, si f (X, Y ) est de carré intégrable,
IE(f (X, Y )|Y ) l’est aussi et V ar [IE(f (X, Y )|Y ] ≤ V ar(f (X, Y ))
Preuve. La pemière assertion est obtenue en faisant g ≡ 1 dans la proposition précédente.
Supposons X à présent que f (X, Y ) est intégrable. En utilisant l’ inégalité de Cauchy-Schwarz et
le fait que IP(X = x|Y = y) = 1, on obtient
x∈F
!2
X p p X
f (x, y) IP(X = x|Y = y) IP(X = x|Y = y) ≤ f 2 (x, y)IP(X = x|Y = y) × 1
x∈F x∈F

Donc IE(f (X, Y )|Y ≤)2 IE(f 2 (X, Y)|Y ). Comme IE(f 2 (X, Y
)|Y ) est intégrable et d’espérance égale
à IE(f (X, Y )), on déduit de la proposition 2.2.18 que IE(f (X, Y )|Y )2 intégrable et
2

IE IE(f (X, Y )|Y )2 ≤ IE(f 2 (X, Y ))


 

IE IE(f (X, Y )|Y )2 − (IE [IE(f (X, Y )|Y )])2 ≤ IE(f 2 (X, Y )) − (IE [IE(f (X, Y )|Y )])2
 

V ar(IE(f (X, Y )|Y )) ≤ IE(f 2 (X, Y )) − [IE(f (X, Y ))]2


V ar(IE(f (X, Y )|Y )) ≤ V ar(f (X, Y ))
16 CHAPTER 2. VARIABLES ALÉATOIRES DISCRÈTES
Chapter 3

Variables aléatoires à densité

3.1 Intégrales multiples


3.1.1 Théorème de Fubini
Théorème 3.1.1. Soit f : IR2 −→ IR.
I si f est positive,
Z Z Z  Z Z 
f (x, y)dxdy = f (x, y)dy dx = f (x, y)dx dy.
IR2 IR IR IR IR

Cela signifie que les trois termes sont soit simultanément finis et égaux soit simultanément égaux
à +∞. Z
I Si f est intégrable au sens où |f (x, y)|dxdy < +∞, alors l’égalité ci-dessus est vraie.
IR2
Exemple 3.1.2. Soit f : [0, +∞[−→ [0, +∞[

Z Z +∞ Z +∞  Z +∞ Z +∞ 
f (x + y) f (x + y) f (z)
dxdy = dy dx = dz dx
[0,+∞[×[0,+∞[ x+y 0 0 x+y 0 x z
Z +∞ Z +∞  Z +∞ Z +∞ 
f (z) f (z)
= I{z≥x} dz dx = I{z≥x} dx dz
0 0 z 0 z 0
Z +∞ Z z  Z +∞
f (z)
= dx dz = f (z)dz
0 z 0 0

3.1.2 Changement de variables


Soit ϕ un ebijection continuement différentiable ainsi que son inverse ϕ−1 d’un ouvert O de IRd sur
un ouvert O0 de IRd , f : IRd −→ IR bornée et g : IRd −→ IR intégrable. On a
Z Z
f [ϕ(x)]g(x)dx = f (y)g[ϕ−1 (y)]|Jacϕ−1 (y)|dy
O O0

∂(ϕ−1 )i
 
−1
où Jacϕ (y) = Det ; 1 ≤ i, j ≤ d .
∂yj

x2 x2 +y 2
Exercise 3.1.3. Calculer I = IR e− 2 dx. Indication: calculer 2 I = IR e− 2 dxdy en utilisant
R R

un changement de variables.
18 CHAPTER 3. VARIABLES ALÉATOIRES À DENSITÉ
En général, dans les problèmes de probabilités, on connaı̂t O et ϕ et on souhaite transformer
une intégrale. Il faut faire attention aux difficultés suivanhtes:
(i) La fonction ϕ n’est pas injective sur le domaine O de départ (O = IR, ϕ(x) = x2 ). Il faut alors
essayer de découper O en sous-domaines sur lesquels ϕ est injective.
(ii) Lorsque ϕ est injective sur O, il faut bien raisonner par les conditions nécessaires et suffisantes
pour obtenir le domaine image O0 . Il ne faut surtout pa sse contenter de conditions nécessaires.

Exemple 3.1.4. Si O =]0, +∞[×]0, +∞[ et ϕ(x, y) = (x + y, x − y). Dire que O0 = ϕ(O) =
]0, +∞[×IR est faux.
Pour déterminer O0 , il faut déterminer ϕ−1 .
z+w
 
z =x+y x=
ϕ−1 (z, w) = (x, y) ⇔ (z, w) = ϕ(x, y) ⇔ ⇔ 2
z−w
w =x−y y= 2

Ainsi, ϕ−1 (z, w) = ( z+w z−w


2 , 2 ). Par suite

z+w

0 −1 2 >0
(z, w) ∈ O ⇔ ϕ (z, w) ∈ O ⇔ z−w ⇔ z > |w|
2 >0

Finalement O0 = {(z, w) ∈ IR2 ; z > |w|}.

3.2 Varaiables aléatoires réelles à densité


3.2.1 Définition
Soit (Ω, A, IP) un espace de probabilité.

Définition 3.2.1. On dit que la variable aléatoire X : Ω −→ IR possède la densit é p : IR −→ IR si


Z b
∀a, b ∈ IR ∪ {−∞, +∞}, IP(a < X < b) = p(x)dx
a
Z
Il en résulte que la densité est une fonction positive vérifiantp(x)dx = 1. Aussi IP(X = x) = 0.
IR P
De même, pour tout sous-ensemble F de IR dénombrable, IP(X ∈ F ) = x∈F IP(X = x) = 0.
Ce qui montre la différence de nature entre variables aléatoires discrètes et variables aléatoires à
densité.

3.2.2 Densités réelles usuelles


Loi uniforme sur [a, b]
X suit la loi uniformle sur [a, b] avec a < b, et on note X ∼ U[a, b] si X a pour densité

1
p(x) = I (x).
b − a [a,b]

Loi exponentielle de paramètre λ > 0


X suit la loi exponentielle de paramètre λ > 0, et on note X ∼ E(λ) si X a pour densité

p(x) = λe−λx Ix>0 (x).


3.2. VARAIABLES ALÉATOIRES RÉELLES À DENSITÉ 19
Loi normale ( ou gaussienne )de paramètres µ ∈ IR et σ2 >0
X suit la loi normale de paramètres µ ∈ IR et σ 2 > 0, et on note X ∼ N (µ, σ 2 ) si X a pour densité

(x − µ)2
 
1
p(x) = √ exp − IIR (x).
2πσ 2 2σ 2

Dans le cas où µ = 0 et σ 2 = 1, on dit que X suit la loi normale centrée réduite.

Loi de Cauchy de paramètre a > 0


X suit la loi de Cauchy de paramètre a > 0, et on note X ∼ C(a) si X a pour densité

a 1
p(x) = I (x).
π x + a2 IR
2

3.2.3 Espérance, Variance

Z la variable aléatoire X : Ω −→ IR qui possède la densité p est dite:


Définition 3.2.2.
I intégrable si |x|p(x)dx < +∞ et dans ce cas on définit son espérance par
IR
Z
IE(X) = x p(x)dx
IR
Z
2
I de carré intégrable si IE(X ) = x2 p(x)dx < +∞ et dans ce cas on définit sa variance par
IR

V ar(X) = IE(X 2 ) − (IE(X))2 = IE (X − IE(X))2




Proposition 3.2.3. 1. L’espérance d’une variable aléatoire X qui possède une densité ne dépend
que de cette densité.
[Link]́arité: IE(X + λ Y ) = IE(X) + λIE(Y ).
3. Condition suffisante d’intégrabilité: Si IP(|X| ≤ Y ) = 1 et Y est intégrable, alors X l’est aussi.
4. Coissance: Si X et Y sont intégrables, IP(X ≥ Y ) = 1 =⇒ IE(X) ≥ IE(Y ).

Exercise 3.2.4. calculer l’espérance et la variance d’une variable uniforme sur [a, b]; d’une variable
exponentielle de paramètre λ > 0; d’une variable de Cauchy paramètre a > 0 et d’une variable
normale centrée réduite.

3.2.4 Fonction de répartition


Définition 3.2.5. Soit X : Ω −→ IR une variable aléatoire réelle ( qui ne possède pas necessaire-
ment une densité ). On appelle fonction de répartition de X la fonction FX : x ∈ IR 7−→ IP(X ≤ x).

Il en résulte que FX croı̂t de 0 à 1 et est continue à droite. Elle a une limite à gauche en tout point
notée FX (x−). De plus on a

IP(a < X ≤ b) = IP(X ≤ b) − IP(X ≤ a) = FX (b) − FX (a).

Proposition 3.2.6. Si la fonction de répartition FX de la variable X aléatoire réelle est globale-


ment continue et C 1 par morceaux ( au sens où il existe un nombre fini de points x1 < x2 < ... < xn
0
tels que FX est C 1 sur ] − ∞, x1 [, ]x1 , x2 [, ..., ]xn−1 , xn [, ]xn , +∞[; alors X possède la densité FX .
20 CHAPTER 3. VARIABLES ALÉATOIRES À DENSITÉ
3.3 Vecteurs aléatoires à densité
Définition 3.3.1. On dit qu ele vecteur aléatoire X = (X1 , ..., Xd ) : Ω −→ IRd possède la densité
p : IRd −→ IR si
Z Z
d
∀ Oouvert de IR , IP(X ∈ O) = p(x)dx = IO (x1 , x2 , ..., xd )p(x1 , x2 , ..., xd )dx1 dx2 ...dxd .
O IRd
Il en résulte qu’une densité de parobabilité p sur IRd est une fonction positive et
Z
p(x1 , x2 , ..., xd )dx1 dx2 ...dx= 1
IRd
La caractérisation par la méthode de la fonction muette est très utile en pratique.
Théorème 3.3.2. Le vecteur aléatoire X : Ω −→ IRd possède la densité p si et seulement si
Z
d
∀f : IR −→ IR bornée , IE(f (X)) = f (x)p(x)dx.
IRd

3.3.1 Densité marginale


Soit X = (X1 , ..., Xd ) : Ω −→ IRd un vecteur aléatoire de densité p et k < d. Si Ok est un ouvert
de IRk ,
Z
d−k
IP(X1 , ..., Xk ) ∈ Ok ) = IP(X ∈ Ok × IR ) = d−k
p(x)dx
Ok ×IR
Z Z 
= p(x1 , x2 , ..., xd )dxk+1 ...dxd dx1 ...dxk
Ok IRd−k
On déduit que le sous-vecteur (X1 , ..., Xk ) possède la densité
Z
q(x1 , x2 , ..., xk ) = p(x1 , x2 , ..., xd )dxk+1 ...dxd
IRd−k
Proposition 3.3.3. Soit X un vecteur aléatoire qui possède une densité. Alors tout sous-vecteur
Y possède la densité marginale obtenue en intégrant celle de X sur les composantes ne figurant pas
dans Y .

3.3.2 Changement de variables


Exercise 3.3.4. Soit (X, Y ) un couple aléatoire de densité
λ2 exp (−λ(x + y)) I{x≥0} I{y≥0} .
Déterminer la loi de (Z, W ) = (X + Y, X − Y ).

Résolution
Utilisons la mt́hode de la fonction muette. Pour toute fonction f : IR2 −→ IR bornée, calculons
IE[f (Z, W )] = IE[f (X + Y, X − Y )].
Soit ϕ : (x, y) ∈ IR2 7−→ (x + y, x − y) ∈ IR2 . La fonction g(x, y) = f ◦ ϕ(x, y) = f (x + y, x − y) est
un efonction bornée sur IR2 . On a donc
Z
IE[g(X, Y )] = 2
g(x, y)λ2 exp (−λ(x + y)) I{x≥0} I{y≥0} dxdy
Z IR
IE[f (X + Y, X − Y )] = f (x + y, x − y)λ2 exp (−λ(x + y)) I{x≥0} I{y≥0} dxdy
IR2
Z +∞ Z +∞
IE[f (Z, W )] = f (x + y, x − y)λ2 exp (−λ(x + y)) dxdy
0 0
3.3. VECTEURS ALÉATOIRES À DENSITÉ 21
La fonction ϕ est une bijection C1
ainsi que son inverse (x, y) = ϕ−1 (z, w) = ( z+w z−w
2 , 2 ) de
O =]0, +∞[×]0, +∞[ sur O = {(z, w) ∈ IR2 : z > |w|}. On a |Jacϕ−1 (z, w)| =
0 1 1
2 et dxdy = 2 dzdw.
Ainsi
  
z+w z−w
Z
2 1
IE[f (Z, W )] = f (z, w)λ exp −λ + dzdw
(z,w):z>|w| 2 2 2
λ2
Z
= f (z, w) exp (−λ z) I{(z,w):z>|w|} (z, w)dzdw
2

λ2
On conclut que la densité du couple (Z, W ) est exp (−λ z) I{(z,w):z>|w|} (z, w).
2
La densité marginale de Z est

λ2
Z
exp (−λ z) I{(z,w):z>|w|} (z, w)dw = I{z>0} (z)λ2 exp (−λ z)
IR 2

celle de W est

λ2
Z
λ
exp (−λ z) I{(z,w):z>|w|} (z, w)dz = I{z>0} (z) exp (−λ |w|)
IR 2 2

d d
Proposition Z 3.3.5. Soit X : Ω −→ IR qui possède la densité p(x) portée par un ouvert O de IR
au sens où p(x)dx = 1 et ϕ est une bijection de O sur O0 de classe C 1 ainsi qu eson inverse
O
ϕ−1 . Alor sle vecteur Y = ϕ(X) possède la densité

q(y) = IO0 (y)p(ϕ−1 (y))|Jac ϕ−1 (y)|

3.3.3 Inépendance
Définition 3.3.6. Les vecteurs aléatoires X1 : Ω −→ IRd1 , ..., Xn : Ω −→ IRdn qui possèdent
respectivement les densités p1 , ..., pn sont dits indépendants si (X1 , ..., Xn ) possède la densité produit
p1 (x) × p2 (x) × ... × pn (x).

La proposition suivante est parfois utile et permet de caractériser l4indépendance de vecteurs


aléatoires (qui n epossèdent pas necessairement des densités).

Proposition 3.3.7. Soient X1 : Ω −→ IRd1 , ..., Xn : Ω −→ IRdn des vecteurs aléatoires.


(1.) Si ces vecteurs aléatoires sont indépendants, alors pour toutes fonction f1 : IRd1 −→ IR, ..., f1 :
IRdn −→ IR telles que f (X1 ), ..., f (Xn ) sont intégrables, f (X1 ) × f2 (x)... × f (Xn ) est intégrable et
n
Y
IE (f (X1 ) × f2 (x)... × f (Xn )) = IE (f (Xi ))
i=1

(2.) Inversement, si pour toutes fonctions f1 : IRd1 −→ IR, ..., f1 : IRdn −→ IR bornées,
n
Y
IE (f (X1 ) × f2 (x)... × f (Xn )) = IE (f (Xi )), alors les vecteurs X1 , ..., Xn sont indépendants.
i=1

Remarque 3.3.8. Lorsque les vecteurs aléatoires X1 , ..., Xn sont indépendants, alors ∀m ∈ [[1, n]], ∀1 ≤
d1 < d2 < ... < dm ≤ n, les vecteurs (X1 , X2 , ..., Xd1 ), (Xd1 +1 , ...Xd2 ), ..., (Xdm−1 +1 , ...Xdm ) et
(Xdm +1 , ...Xn ) sont indépendants.
22 CHAPTER 3. VARIABLES ALÉATOIRES À DENSITÉ
3.3.4 Covariance
On rappelle que si Y et Z sont deux variables aléatoires de carré intégrable, leur produit Y Z est
intégrable vu que |Y Z| ≤ (Y 2 + Z 2 )/2.

Définition 3.3.9. I Soit Y et Z deux variables aléatoires réelles de carré intégrable ( non
nécessairement à densité ). On appelle covariance de Y et Z le nombre Cov(Y, Z) défini par

Cov(Y, Z) = IE [(Y − IE(Y ))(Z − IE(Z))] .

I Soit X = (X1 , ..., Xd ) un vecteur aléatoire à valeurs dans IRd ( non nécessairement à densité )
dont les composantes sont de carré intégrable. On appelle matrice de covariance du vecteur X, la
matrice K X de dimension d × d et d’éléments Ki,j X défini par

X
Ki,j = Cov(Xi , Xj ) = IE [(Xi − IE(Xi ))(Xj − IE(Xj ))] , 1 ≤ i, j ≤ d.

Proposition 3.3.10. 1. Cov(Y, Y ) = V ar(Y ) et les éléments diagonaux de la matrice de covariance


K X sont les variances des composantes de X.
2. Cov(Y, Z) = IE(Y Z) − IE(Y )IE(Z).
3. Si Y et Z sont indépendants, alors Cov(Y, Z) = 0. La réciproque est fausse.
4. La matrice de covariance K X est symétrique et définie-positive. En outre
∀u ∈ IRd , V ar(hu, Xi) = hu, K X ui.
Xd
5. V ar(X1 + X2 + ... + Xd ) = Cov(Xi , Xj ).
i=1

Preuve. Nous traittons uniquement la deuxième partie du 3. La preuve du reste est à faire en
exercice. Considérons Y ∼ U[−1, 1] et Z = εY où ε est une variable aléatoire indépendante de Y
telle que IP(ε = 1) = IP(ε = −1) = 21 . On a IE(Y ) = 0 et IE(Y Z) = IE(εY 2 ) = IE(ε)IE(Y 2 ) =
0 × IE(Y 2 ) = 0 si bien que Cov(Y, Z) = 0. Mais comme ε2 = 1,

1 1 4
Z
2 2 2 4 4 1
IE(Y Z ) = IE(ε Y ) = IE(Y ) = y dy =
2 −1 5
1 1 2
Z
1 1
IE(Y 2 ) = y dy = et IE(Z 2 ) = IE(ε2 Y 2 ) = IE(Y 2 ) =
2 −1 3 3

1 1
Si bien que IE(Y 2 Z 2 ) = 6= = IE(Y 2 )IE(Z 2 ). les variables Y et Z ne sont donc pas indépendantes.
5 9

3.3.5 Loi et espérance conditionnelles


On considère un couple (X, Y ) : Ω −→ IRd1 × IRd2 avec la densité pX,Y (x, y). On note pX (x) et
pY (y) les densités marginales respectives de X et Y .

Définition 3.3.11. Pour y ∈ IRd2 , on appelle densité conditionnelle de X sachant Y = y, la


densité pX,y (x) donnée par la formule
(
pX,Y (x,y)
pY (y) si pY (y) > 0
pX,y (x) =
pX (x) sinon

Proposition 3.3.12. Les variables X et Y sont indépendantes si et seulement si la densité condi-


tionnelle de X sachant Y )y ne dépend pas de y.
3.4. LOI BÉTA, GAMMA, DU CHI 2, DE STUDENT ET DE FISHER 23
d1 d2
Définition 3.3.13. Soit f : IR ×IR −→ IR telle que f (X, Y ) est intégrable. On appelle espérance
conditionnelle de f (X, Y ) sachant Y et on note IE (f (X, Y )|Y ) la variable aléatoire
Z
IE (f (X, Y )|Y ) = ψ(Y ) où ψ(y) = f (x, y)pX,y (x)dx
IRd1

Proposition 3.3.14. On suppose que f (X, Y ) est intégrable. Pour toute fonction g : IRd2 −→ IR
telle que f (X, Y )g(Y ) est intégrable, la variable aléatoire IE (f (X, Y )|Y ) g(Y ) est intégrable et on
a
IE [IE (f (X, Y )|Y ) g(Y )] = IE (f (X, Y )g(Y )) .
En outre, IE [IE (f (X, Y )|Y )] = IE (f (X, Y )). Enfin si f (X, Y ) est de carré intégrable, IE (f (X, Y )|Y )
l’est aussi et V ar [IE (f (X, Y )|Y )] ≤ V ar [f (X, Y )].

Exercise 3.3.15. Soit U et V deux variables aléatoires uniformes sur [0, 1] indépendantes et Y =
U −V.
1. Calculer la loi du couple (U, Y ).
2. En déduire la loi marginale de Y .
3. Donner la loi conditionnelle de U sachant Y = y et calculer IE(U |Y ).

3.4 Loi béta, gamma, du chi 2, de Student et de Fisher


Z +∞
Dans toute cette section, on note Γ la fonction gamma d’Euler: a > 0 7→ Γ(a) = xa−1 e−x dx.
0
On vérifie aisément que ∀a > 0 Γ(a + 1) = aΓ(a) et ∀a ∈ IN∗ Γ(n) = (n − 1)!.

Loi gamma de paramètres a > 0 et θ > 0


La variable X suit la loi gamma de paramètres a > 0 et θ > 0 et on note X ∼ Γ(a, θ) si X possède
la densité
θa a−1 −x
pX (x) = x e I{x>0}
Γ(a)
Exemple: La loi exponentielle de paramètre θ est la loi Γ(1, θ).

Loi béta de paramètres a > 0 et b > 0


La variable X suit la loi béta de paramètres a > 0 et b > 0 et on note X ∼ β(a, b) si X possède la
densité
Γ(a + b) a−1
pX (x) = x (1 − x)b−1 I{0<x<1}
Γ(a)Γ(b)
Exemple: La loi uniforme sur [0, 1] est la loi β(1, 1).

Proposition 3.4.1. (i) Soit X1 , X2 , ..., Xn des variables aléatoires identiques identiquement dis-
tribuées (I.I.D) suivant la loi exponentielle de paramètre θ > 0 .
Alors la loi de Sn = X1 + X2 + ... + Xn est la loi gamma de paramètre (n, θ): Γ(n, θ).
X
(ii) Soit X ∼ Γ(a, θ) et Y ∼ Γ(b, θ) indépendantes. Alors S = X + Y et Z = X+Y sont deux
variables aléatoires indépendantes de loi respective Γ(a + b, θ) et β(a, b).

Preuve. Exercice. 1. Faire la preuve du (i) et du (ii).


Z 1
Γ(a)Γ(b)
2. Déduire du (ii) que z a−1 (1 − z)b−1 dz = .
0 Γ(a + b)
24 CHAPTER 3. VARIABLES ALÉATOIRES À DENSITÉ
Définition 3.4.2. I On appelle loi de Chi 2 à n degrés de liberté et on note χ1 (n), la loi de
X12 + X22 + ... + Xn2 où X1 , X2 , ..., Xn sont n variables normales centrées réduites indépendantes.
G
I On appelle loi de Student de paramètre n et on note t(n), la loi de q où G ∼ N (0, 1) et
Y
n
Y ∼ χ2 (n).

Proposition 3.4.3. (i) La loi χ2 (n) est la loi Γ( n2 , 12 ) de densité

1 n y
pX (y) = n
n
y 2 −1 e− 2 I{y>0}
2 Γ( 2 )
2

(ii) La loi de Student t(n) est la loi de densité

Γ( n+1
2 ) 1
pX (t) = n √ ×
Γ( 2 ) nπ (1 + t2 ) n+1
2
n

Preuve. Exercice.
Chapter 4

Vecteurs aléatoires gaussiens

4.1 Définition, construction


4.1.1 Définition
Définition 4.1.1. Une variable aléatoire réelle de loi N (m, σ 2 ), où m est un réel et σ un réel
positif ou nul, est dit gaussienne.

Définition 4.1.2. On dit qu’un vecteur aléatoire X = (X1 , X2 , ..., Xd ) : Ω −→ IRd est un vecteur
gaussien si toute combinaison linéaire de ses coordonnées est une variable aléatoire gaussienne
réelle. C’est à dire si pour tous réels a1 , a2 , ..., ad , la variable aléatoire réelle a1 X1 +a2 X2 +...+ad Xd
est une variable aléatoire gaussienne.

Proposition 4.1.3. Soit (X1 , X2 , ..., Xd ) une suite de variable aléatoire réelle. Si le vecteur X =
(X1 , X2 , ..., Xd ) est une vecteur gaussien de dimension d, alors pour tout k = 1, 2, ..., d Xk est une
variable aléatoire réelle gaussienne.
La réciproque est fausse.

Preuve. Construire un exemple qui justifie qu ela réciproque est fausse.

Proposition 4.1.4. Soit (X1 , X2 , ..., Xd ) une suite indépendantes de variable aléatoire réelle.
Si le vecteur X = (X1 , X2 , ..., Xd ) est une vecteur gaussien de dimension d si et seulment si pour
tout k = 1, 2, ..., d Xk est une variable aléatoire réelle gaussienne.

Preuve. (=⇒) Cela résulte de l adéfinition des vecteurs gaussiens. ( pas besoin de l’hypothèse
d’indépendance).
(⇐=) Si (X1 , X2 , ..., Xd ) est une suite indépendante de variable aléatoire réelle, alors pour tous
réels a1 , a2 , ..., ad , la suite (a1 X1 , a2 X2 , ..., ad Xd ) est indépendante. De plus si la variable aléatoire
réelle Xk ∼ N (mk , σk2 ), la variable aléatoire réelle ak Xk ∼ N (ak mk , a2k σk2 ). La variable aléatoire
réelle a1 X1 + a2 X2 + ... + ad Xd est alors une une variable aléatoire réelle gaussienne comme somme
de variables aléatoires réelles gaussiennes indépendantes.

Proposition 4.1.5. Soit X un vecteur aléatoire de dimension d admettant une espérance m =


(m1 , m2 , ..., md ) ∈ IRd et une matrice de dispersion D. Alors X est une vecteur gaussien si et
seulement si, sa fonction caractéristique ΦX est donnée par , pour tout u ∈ IRd
 
1
ΦX (u) = exp ihu, mi − hu, D ui
2
26 CHAPTER 4. VECTEURS ALÉATOIRES GAUSSIENS
Preuve. (=⇒) Posons X = (X1 , X2 , ..., Xd , u = (u1 , u2 , ..., ud ) et Y = u1 X1 + u2 X2 + ... +
ud Xd . Comme X est un vecteur gaussien, la variable aléatoire réelle Y est de loi gaussienne,
Y ∼ N (mY , σY2 ). De plus

mY = IE(Y ) = u1 IE(X1 ) + u2 IE(X2 ) + ... + ud IE(Xd ) = hu, mY i

et
h i
σY2 = IE (Y − mY )2 = IE (u1 (X1 − m1 ) + u2 (X2 − m2 ) + ... + ud (Xd − md ))2 [
 
X
= ui uj IE [(Xi − mi )(Xj − mj )]
1≤i,j≤d
X
= ui uj Cov 0 Xi , Xj ) = hu, D ui
1≤i,j≤d

Comme pour tout u ∈ IRd ,


 

i(u1 X1 +u2 X2 +...+ud Xd )

iY 1 2
ΦX (u) = IE e = IE(e ) = ΦY (1) = exp imY − σY
2

On obtient  
1
ΦX (u) = exp ihu, mi − hu, D ui
2
(⇐=) Soit X = (X1 , X2 , ..., Xd ) un vecteur aléatoire quelconque de fonction caractéristique définie
sur IRd par  
1
ΦX (u) = exp ihu, mi − hu, D ui
2
Soit Y = a1 X1 + a2 X2 + ... + ad Xd une combinaison linéaire des composantes de X. Pour tout réel
t
 
ΦY (t) = IE(eitY ) = IE ei(ta1 X1 +ta2 X2 +...+tad Xd ) = ΦX (a1 t, a2 t, ..., ad t)
 
1
= exp iha, mi − t2 ha, D ai
2

où on a posé a = (a1 , a2 , ..., ad ). Ainsi pour tout n-uplet de réels (a1 , a2 , ..., ad ), la variable aléatoire
réelle a1 X1 +a2 X2 +...+ad Xd est une la variable aléatoire réelle gaussienne de loi N (ha, mi, ha, D ai).
X est bien un vecteur gaussien.

4.2 Loi d’un vecteur gaussien


Proposition 4.2.1. Si m ∈ IRd et D est une matrice carré d’ordre d à coefficients réels, symétrique
et de type positif, il existe un espace de probabilité (Ω, F, IP) et un vecteur gaussien de dimension
d sur (Ω, F, IP) d’espérance m et de matrice de dispersion D.

Définition 4.2.2. On appelle loi de Gauss-Laplace ou loi normale sur IRd de paramètres
m et D, la loi de probabilité d’un vecteur gaussien de dimension d d’espérance m et de matrice de
dispersion D. On note Nd (m, D).

Proposition 4.2.3. Si X est un vecteur gaussien de dimension d, A une matrice rectangulaire


k × d à coefficients réels et b un vecteur de dimension k. Alors le vecteur aléatoire Y = A X + b est
un evecteur gaussien de dimension k. De plus si X ∼ Nd (m, D), la loi de Y est Nd (Am+b, ADA∗ ).
4.2. LOI D’UN VECTEUR GAUSSIEN 27
Proposition 4.2.4. Soit X = (X1 , X2 , ..., Xd ) un vecteur gaussien de dimension d. Alors la suite
de variables aléatoires réelles (X1 , X2 , ..., Xd ) est indépendante si et seulement si la matrice de
dispersion de X est diagonale.

Proposition 4.2.5. Soient m ∈ IRd et D une matrice carrée d’ordre d à coefficients réels,
symétrique et de type positif. Si D est inversible, alors X ∼ Nd (m, D) a pour densité sur IRd
 
1 1 ∗ −1
pX (x) = p exp − (x − m) D (x − m)
(2π)2 det(D) 2

Exemple 4.2.6. Soit (X, Y ) un couple de variables aléatoires réells admettant pour densité
1
l’application définie sur IR2 par f (x, y) = exp − (x2 − xy + y 2 ) . On vérifie que
2

1 − 12
    
x −1 x
(x2 − xy + y 2 ) = (x, y) = (x, y)D
− 12 1 y y
4 2
 
3 3
où D =   est la matrice de dispersion du vecteur (X, Y ). On déduit que (X, Y ) est
2 4
3 3
un vecteur gaussien de loi Nd (0, D). Aussi X et Y suivent la loi N1 (0, 34 ). Puisque D n’est pas
diagonale, X et Y ne sont pas indépendantes.
28 CHAPTER 4. VECTEURS ALÉATOIRES GAUSSIENS
Chapter 5

Convergence et théorèmes limites

5.1 Convergence
Définition 5.1.1. Pour n −→ +∞, on dit qu’une suite (Xn )n≥1 de variables aléatoires à valeurs
dans IRd converge vers la variable X à valeurs dans IRd :
I Presque sûrement si IP (Xn −→ X) = IP ({ω : Xn (ω) −→ X(ω)}) = 1. C’est à dire les fonctions
Xn (ω) définies sur Ω convergent ponctuellement sur un sous-ensemble de Ω de probabilité 1 vers la
fonction X.
I En probabilité si ∀ε > 0, IP (|Xn − X| ≥ ε) tend vers 0 quand n −→ +∞.

I Dans L1 si les variables Xn , X sont intégrables et IE(|Xn −X|) tend vers 0 quand n −→ +∞.
I Dans L2 ( ou en moyenne quadratique) si les variables Xn , X sont de carré intégrables et
IE(|Xn − X|2 ) tend vers 0 quand n −→ +∞.
Remarque 5.1.2. Soit (Xn )n≥1 une suite de variables aléatoires réelles qui converge dans L1 vers X.
Alors lim IE(Xn ) = IE(X). En effet, comme Xn − X ≤ |Xn − X|, par linéaritét croissance de
n−→+∞
l’espérance, IE(Xn ) − IE(X) = IE(Xn − X) ≤ IE|Xn − X|. De même, par symétrie IE(X) − IE(Xn ) =
IE(X − Xn ) ≤ IE|X − Xn |. Ainsi |IE(Xn ) − IE(X)| ≤ IE|Xn − X|. Ce qui permet de conclure.
Théorème 5.1.3. (convergenge dominée). Soit (Xn )n≥1 une suite de variables aléatoires réelles
qui converge presque sûrement vers X. On suppose d eplus la suit est dominée au sen soù il existe
un evariable aléatoire Y intégrable telle que

∀n ≥ 1, IP(|Xn | ≤ Y ) = 1.

Alors X est intégrable et (Xn )n≥1 converge dans L1 vers X. Ce qui entraı̂ne en particulier que
lim IE(Xn ) = IE(X).
n−→+∞

Proposition 5.1.4. ( Quelques inégalités)


Inégalité de Markov: Si IE|X| < +∞, alors
IE|X|
∀a ≥ 0, IP(|X| ≥ a) ≤ .
a
Inégalité de Bienaymé-Tchebychev: Si IE(X 2 ) < +∞, alors

IE(X 2 )
∀a ≥ 0, IP(|X| ≥ a) ≤ .
a2
Inégalité de Cauchy-Schwarz: Si les variables X et Y sont de carré intégrable, alors
p p
|IE(XY )| ≤ IE(X 2 ) IE(Y 2 ).
30 CHAPTER 5. CONVERGENCE ET THÉORÈMES LIMITES
|x|
Preuve. • Inégalité de Markov: Comme ∀x ∈ IR, I{|x|≥a} ≤ a , en utulisant la propriété de la
croissance de l’espérance, on obtient
 |X|
IP(|X| ≥ a) = IE I{|x|≥a} ≤ .
a
x2
• Inégalité de Bienaymé-Tchebychev : Utiliser ∀x ∈ IR, I{|x|≥a} ≤ a2
et la même méthode.
• Inégalité de Cauchy-Schwarz: Utiliser ∀λ ∈ IR, le polynôme
IE(X 2 ) + 2λIE(XY ) + λ2 IE(Y 2 ) = IE[(X + λY )2 ] ≥ 0
Son discriminant 4[IE(XY )]2 − 4IE(X 2 )IE(Y 2 ) ≤ 0. Ce qui donne le résultat.

Proposition 5.1.5. I La convergence L2 impliqu ela convergencze L1 qui elle-mˆme implique la


convergence en probabilité.
I Soit (Xn )n≥1 une suite de variables aléatoires réelles qui converge dans L2 vers X. Alors
IE(Xn ),IE(Xn2 ) et V ar(Xn ) convergent respectivement vers IE(X),IE(X 2 ) et V ar(X).
I la convergence presque-sûre entraı̂ne la convergence en probabilité. La réciproque n’est pas vraie.
Preuve. Concergence L2 =⇒ convergence L1 : Toute variable de carré intégrablep est intégrable et
V ar(Xn − X) = IE(|Xn − X|2 ) − [IE|Xn − X|]2 ≥ 0. Il vient IE|Xn − X| ≤ IE(|Xn − X|2 ). Ce
qui donne le résultat.
Concergence L1 =⇒ convergence en probabilité: Cela découle de l’inégalité de Markov, IP(|Xn −
IE|Xn − X|
X| ≥ ε) ≤ pour ε > 0.
ε
2
Concergence L =⇒ convergence des espérances et variances: Il suffit 2
p de vérifier
p que IE(Xn ) con-
verge vers IE(X 2 ). Par l’inégalité de Cauchy-Schwarz, IE(Xn X) ≤ IE(Xn2 ) IE(X 2 ). Donc
p p 
IE (Xn − X)2 = IE(Xn2 ) − 2IE(Xn X) + IE(X 2 ) ≥

IE(Xn2 ) − IE(X 2 )
p p
Ainsi , IE(Xn2 ) converge vers IE(X 2 ) et on conclut en utilisant la continuité de x 7→ x2 .
Concergence presque-sûre =⇒ convergence en probabilité: Soit (Xn )n≥1 une suite qui converge
presque-sûrement vers X. Alors la suite |Xn − X| converge presque-sûrement vers 0.
Pour tout ε > 0, la fonction I{|x|≥ε} est continue en 0. On déduit que Yn = I{|Xn −X|≥ε} converge
presque-sûrement vers 0. Les variable Yn sont dominées par 1 qui e st intégrable. Donc Yn converge
dans L1 vers 0. Comme IP(|Xn − X| ≥ ε) = IE I{|Xn −X|≥ε} , on a le résultat

 
lim IP(|Xn − X| ≥ ε) = lim IE I{|Xn −X|≥ε} = 0.
n−→+∞ n−→+∞

5.2 Lois des grands nombres


5.2.1 Lis faibles des grands nombres
Soit (Xj )j≥1 une suite de variables aléatoires réelles indépendantes identiquement distribuées (
(I.I.D). Les lois des grands nombres portent sur le comportement de la moyenne empirique
n
1X
Xj lorque n −→ +∞.
n
j=1

Proposition 5.2.1. Soit (Xj )j≥1 une suite de variables aléatoires réelles indépendantes identique-
n
1X
ment distribuées ( (I.I.D) de carré intégrable. Alors la moyenne empirique Xj converge dans
n
j=1
L2 ( et donc dans L1 et en probabilité) vers l’espérance commune IE(X1 ).
5.3. FONCTION CARACTÉRISTIQUE ET CONVERGENCE EN LOI 31
Preuve.
  2 
n n
1 X X
IE (X¯n − IE(X1 ))2 =
 
IE Xj − IE  Xj  
n2
j=1 j=1
n
1 X
= V ar(Xj ) par indépendance des Xj
n2
j=1
V ar(X1 )
= −→n→+∞ 0
n

5.2.2 Loi forte des grands nombres


Théorème 5.2.2. Soit (Xj )j≥1 une suite de variables aléatoires réelles indépendantes identique-
n
1X
ment distribuées ( (I.I.D) intégrables. Alors la moyenne empirique Xj converge presque-
n
j=1
sûrement et dans L1 vers l’espérance commune IE(X1 ). C’est à dire
 
n
1 X
IP  Xj → IE(X1 ) = 1.
n
j=1

5.3 Fonction caractéristique et convergence en loi


5.3.1 Fonction caractéristique
Définition 5.3.1. Soit X un vecteur aléatoire à valeurs dans IRd . On appelle fonction car-
actéristique de X, l afonction:
 
ΦX : u ∈ IRd −→ ΦX (u) = IE eihu,Xi

Remarque 5.3.2. I ΦX (0, 0..., 0) = 1.


¯
I ∀u ∈ IRd , ΦX (−u) = ΦX (−u).
I La fonction caractéristique de X Zn edépend que de la loi de X: L(X) = L(Y ) =⇒ ΦX ≡ ΦY .
I Si ΦX est intégrable au sens où |ΦX (u)|du < +∞, alors X possède la densité obtenue par
IRd
inversion de Fourier: Z
1
x ∈ IRd −→ p(x) = e−ihu,xi ΦX (u)du
(2π)d IRd
I Fonctions caractéristiques des lois usuelles.
Loi Fonction caractéristique
Benoulli B(p) (1 − p) + peiu
Binomiale B(n,p) [(1 − p) + peiu ]n
peiu
Géométrique G(p) 1−(1−p)eiu 
Poisson P(λ) exp λ(eiu − 1)
(b−a)u (b+a)
Uniforme U[a, b] 2
(b−a)u eiu 2
2
λ
Exponentielle E(λ) λ−iu
Cauchy C(a) e −a|u|
σ 2 u2
Gaussienne N1 (µ, σ 2 ) eiuµ− 2
32 CHAPTER 5. CONVERGENCE ET THÉORÈMES LIMITES
Exercise 5.3.3. Faire le calcul explicite des ces fonctions caractéristiques.
Proposition 5.3.4. La fonction caractéristique caractérise la loi. c’est à dire
∀u ∈dR , ΦX (u) = ΦY (u) =⇒ L(X) = L(Y )i.e∀f : IRd → IR bornée IE(f (X)) = IE(f (Y ))
Exercise 5.3.5. Soit T une variable aléatoire exponentielle de paramètre a > 0 et ε une variable
indépendante telle que IP(ε = 1) = IP(ε = −1) = 1/2. On pose
X = εT
1. Déterminer la loi de X.
2. Calculer sa fonction caractéristique ΦX .
3. En application l aformule d’inversion de la précédente remarque, déduire la fonction car-
actéristique d’une variable aléatoire qui suit la loi de Cauchy C(a).
Xn
4. En déduire la loi de la moyenne empirique Y¯n = Yj d’une suite (Yj )j≥1 de variables aléatoires
j=1
I.I.D suivant la loi Cauchy C(a).
Lemme 5.3.6. Soit X une variable aéatoire réelle de carré intégrable. Alors sa fonction car-
actéristique ΦX C 2 et admet le développement limité suivant en 0:
u2
ΦX (u) = 1 + iuIE(X) − IE(X 2 ) + o(u2 )
2

5.3.2 Convergence en loi


Définition 5.3.7. On dit que la suite (Xn )n≥1 de variables aéatoires à valeurs dans IRd converge
L
en loi vers la variable aléatoire X à valeurs dans IRd et on note Xn −
→ X si
∀f : IRd → IR continue bornée IE(f (Xn ) −→n→+∞ IE(f (X)).
Exemple 5.3.8. I Pour n ∈ IN∗ , on suppose que ∀1 ≤ k ≤ n, IP(Un = k/n) = 1/n. Soit
f : IR → IR continue bornée. La convergence des sommes de Riemann vers l’intégrale entraine que
n Z 1
1X 1
IE(f (Un )) = f ( ) −→n→+∞ f (u)du = IE(f (U )).
n n 0
k=1

où U est une variable uniforme sur [0, 1]. Ainsi la suite (Un )n≥1 converge en loi vers U ∼ U[0, 1].
I Pour n ∈ IN∗ , Xn est une variable aléatoire uniformément répartie sur [0, 1/n]. Alors pour tout
f continue bornée,
Z 1
n
IE(f (Xn )) = n f (x)dx −→n→+∞ f (0).
0
Donc,la suite (Xn )n≥1 converge en loi vers X telle que IP(X = 0) = 1. δ0 la mesure de Dirac.
I Pour n ∈ IN, soit Tn une variable aléatoire exponentielle de paramètre λn > 0. On suppose que
la suite (λn )n converge vers λ > 0. Alors pour f : IR → IR continue bornée,
∀n ∈ IN, ∀x ≥ 0, |f (x)λn e−λn x | ≤ g(x) = |f (x)|(sup λn )e−(inf n λn )x ,
n

où la fonction g est intégrable sur [0, +∞[. Par le théorème de la convergence dominée,
Z +∞
IE(f (Tn )) = f (x)λn e−λn x dx
0
Z +∞
converge vers f (x)λe−λ x dx = IE(f (T )) où T suit la loi exponentielle de paramètre λ > 0.
0
Ainsi (Tn )n converge vers T ∼ E(λ).
5.3. FONCTION CARACTÉRISTIQUE ET CONVERGENCE EN LOI 33
d
Proposition 5.3.9. Soit (Xn )n une suite de variables aéatoires à valeurs dans IR converge en loi
vers X et ϕ : IRr → IRq une fonction continue. Alors la suite (ϕ(Xn ))n converge en loi vers ϕ(X).

Preuve. Soit g : IRq →R continue bornée. La fonction g ◦ ϕ : IRd → IR est continue bornée.
Doncla convergence en loi de (Xn )n≥1 vers X entraı̂ne que

lim IE[g(ϕ(Xn ))] = IE[g(ϕ(X))]


n→+∞

Théorème 5.3.10. La suite (Xn )n≥1 de variables aéatoires à valeurs dans IRd converge en loi
vers la variable aéatoire X à valeurs dans IRd si et seulement si la fonction caractéristique de Xn
converge ponctuellement vers la la fonction caractéristique de X. C’st à dire
L
→ X ⇐⇒ ∀u ∈ IRd , ΦXn (u) → ΦX (u)
Xn −

Corollaire 5.3.11. Si la suite (Xn )n≥1 converge en probabilité vers X, alors elle converge en loi
vers X.

Preuve. Soit u ∈ IRd et ε > 0. On a

|ei∠u,Xn i − ei∠u,Xi | = |ei∠u,Xn i − ei∠u,Xi |I{|Xn −X|≥ε} + |ei∠u,Xn i − ei∠u,Xi |I{|Xn −X|<ε}
≤ 2 × I{|Xn −X|≥ε} + |ei∠u,Xn i − ei∠u,Xn i |I{|Xn −X|<ε} .

Comme ∀a, b ∈ IR, |eia − eib | ≤ |b − a|, on déduit que

|ei∠u,Xn i − ei∠u,Xn i | ≤ 2 × I{|Xn −X|≥ε} + |u|εI{|Xn −X|<ε} ≤ 2 × I{|Xn −X|≥ε} + |u|ε.

Par suite
 
|ΦXn (u) − ΦX (u)| = |IE ei∠u,Xn i − ei∠u,Xn i | ≤ IE ei∠u,Xn i − ei∠u,Xn i ≤ 2IP (|Xn − X| ≥ ε) + |u|ε.

Uniformément en n, le second terme à gauche est arbitrairement petit tandis qu’à ε fixé le pre-
mier terme converge vers 0 quand n → +∞ ( dû à la convergence en probabilité). Ainsi, ∀u ∈
IRd , ΦXn (u) → ΦX (u).

Proposition 5.3.12. Si la suite (Xn )n≥1 de variable aléatoires à valeurs dans IRd converge en loi
vers la variable aléatoire X à valeurs dans IRd , alors

IE (f (Xn )) −→n→+∞ IE (f (X))

pour toute fonction f : IRd −→ IR bornée dont l’ensemble des points de discontinuité D vérifie
IP(X ∈ D) = 0.

Remarque 5.3.13. Il ne suffit pas que la suite (Xn )n converge en loi vers X et que la suite (Yn )n
converge en loi vers Y pour que la suite des couples (Xn , Yn )n converge en loi vers (X, Y ). En
1
exemple, soit Z la variable aléatoire telle IP(Z = −1) = IP(Z = 1) = et (Xn , Yn ) = (Z, (1)−n Z).
2
Alors la suite (Xn )n converge en loi vers Z. De même la suite (Yn )n converge en loi vers Z puisque
L(−Z) = L(Z). Mais pour la fonction continue bornée f (x, y) = min(|x − y|, 2) sur IR2 ,

0 si n est pair
IE ((f (Xn , Yn )) =
2 si n est impair

Si bien que la suite (Xn , Yn )n ne converge pas en loi.


34 CHAPTER 5. CONVERGENCE ET THÉORÈMES LIMITES
Théorème 5.3.14. (Slutsky) Soit (Xn , Yn )n une suite de vecteurs aléatoires à valeurs dans IRd1 ×
IRd2 telle que (Xn )n converge en loi( ou en probabilité ou presque-sûrement) vers une constante
a ∈ IRd1 et (Yn )n converge en loi vers Y . Alors (Xn , Yn )n converge en loi vers (a, Y ). En particulier
lorque d1 = d2 = 1, (Xn Yn )n converge en loi vers aY et lorsque d1 = d2 , (Xn + Yn )n converge en
loi vers a + Y .
Preuve. Soit (u, v) ∈ IRd1 × IRd2 .
h i
|Φ(Xn ,Yn ) (u, v) − Φ(a,Y ) (u, v)| = |IE (eihu,Xn i − eihu,ai )eihv,Yn i + eihu,ai IE(eihv,Yn i − eihv,Y i |
≤ IE|eihu,Xn i − eihu,ai | + |ΦYn (v) − ΦY (v)|

La convergence en loi de Yn vers Y entraı̂ne que le second terme tend vers 0 quand n → +∞. En
outre la fonction x ∈ IRd1 7→ f (x) = |eihu,xi − eihu,ai | est continue et bornée. On déduit que le
premier terme converge vers IE(f (a)) = 0. On conclut ainsi que (Xn , Yn )8n converge en loi vers
(a, Y ).
Les cas particuliers proviennent de la Proposition 5.3.9 en remarquant que (x, y) ∈ IR × IR 7→ xy
et (x, y) ∈ IRd1 × IRd2 7→ x + y sont des fonctions continues.

5.4 Le théorème de la limite centrale


Théorème 5.4.1. (T.C.L)
Soit (Xj )j≥1 une suite de variables
p aléatoires réelles indépendantes et identiquement distribuées
telles que IE(X12 ) < +∞ et σ = V ar(X) > 0. Alors n → +∞,

 
n
n 1 X L
Xj − IE(X1 ) − → N (0, 1).
σ n
j=1

1 Pn
Preuve. On note X̄n = n j=1 Xj . Soit u ∈ IR,
1 Pn
(X −IE(Xj ))
h i
iu √
Φ √n (u) = IE e σ n j=1 j
σ (X¯n −IE(X1 ))
n
1
X −IE(Xj ))
IE e σ n ( j
h i
iu √
Y
= par indépendance des Xj
j=1
in
1
X −IE(X1 ))
IE e σ n ( 1

h
iu √
= car les Xj ont même loi ,
  n
u
= ΦX1 −IE(X1 ) √ .
σ n

Comme IE(X1 − IE(X1 )) = 0 et IE((X1 − IE(X1 ))2 ) = σ 2 , pour v au voisinage de 0, on a

σ2 2
ΦX1 −IE(X1 ) (v) = 1 − v + o(v 2 ).
2
Donc pour n grand,
u2
 
u 1
ΦX1 −IE(X1 ) √ =1− + o( )
σ n 2n n
Par suite n
u2

1 u2
Φ √
n ¯ IE (u) = 1 − + o( ) →n→+∞ e− 2 = ΦY (u).
σ ( n
X − (X1 )
) 2n n

Vous aimerez peut-être aussi