100% ont trouvé ce document utile (1 vote)
302 vues45 pages

Complement

Le document présente un cours sur les variables aléatoires à densité, incluant des définitions, des propositions et des théorèmes relatifs aux lois de probabilité, aux fonctions de répartition et aux propriétés des variables aléatoires. Il aborde également les concepts de convergence et les solutions d'exercices. La structure du cours est organisée en plusieurs sections détaillant les notions fondamentales et les résultats remarquables associés aux variables aléatoires.

Transféré par

abdallahessakine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
302 vues45 pages

Complement

Le document présente un cours sur les variables aléatoires à densité, incluant des définitions, des propositions et des théorèmes relatifs aux lois de probabilité, aux fonctions de répartition et aux propriétés des variables aléatoires. Il aborde également les concepts de convergence et les solutions d'exercices. La structure du cours est organisée en plusieurs sections détaillant les notions fondamentales et les résultats remarquables associés aux variables aléatoires.

Transféré par

abdallahessakine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

cpge Réda Slaoui- Al Qalam

Cours
Variables aléatoires à densité

Said Hajmi

Classe MP-MP*
Table des matières

I Généralisation de la notion de variables aléatoire réelle . . . . . . . . . . . 4


1 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . 6
3 Vecteur de variables aléatoires . . . . . . . . . . . . . . . . . . . . . 8
4 Indépendance de variables aléatoires . . . . . . . . . . . . . . . . . 9
II Variable aléatoire à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1 Fonction d’une variable aléatoire continue . . . . . . . . . . . . . . 12
2 Lois continues usuelles . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 loi exponentielle de paramètre 𝜆 notée E(𝜆) . . . . . . . . . . . . . 15
4 loi normale (ou Gaussiènne) N (𝑚, 𝜎 2 ) . . . . . . . . . . . . . . . . 16
5 loi gamma Γ(𝛼, 𝜆) . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6 Loi de la somme et stabilité . . . . . . . . . . . . . . . . . . . . . . 19
7 Espérance, moment . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
8 Transferts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
9 Propriétés de l’espérance . . . . . . . . . . . . . . . . . . . . . . . . 25
10 Moments d’ordre 2, variance convariance . . . . . . . . . . . . . . 26
11 Présentation de la fonction caractéristique : transformée de Fourier,
de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
III Convergences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
IV Convergence de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . 33
1 Convergence simple . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2 Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . 34
3 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
V Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

page 2 / 45
Cours Table des matières

Liste des résultats remarquables

12.6 Proposition : Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . 7


12.8 Définition : Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . 9
12.9 Proposition : Indépendance héritée . . . . . . . . . . . . . . . . . . . . . . 10
12.3 Exercice : Uniforme et binomiale . . . . . . . . . . . . . . . . . . . . . . . . 14
12.6 Exercice : Lien entre lois exponentielles et lois géométriques . . . . . . . . 16
12.7 Exercice : Loi de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
12.14 Théorème : Stabilité de la loi Gamma . . . . . . . . . . . . . . . . . . . . . 20
12.15 Théorème : Somme de lois exponentielles . . . . . . . . . . . . . . . . . . . 21
12.16 Théorème : Stabilité de la loi normale . . . . . . . . . . . . . . . . . . . . . 21
12.8 Exercice : Une autre expression de l’espérance . . . . . . . . . . . . . . . . 23
12.18 Théorème : Théorème de transfert . . . . . . . . . . . . . . . . . . . . . . . 24
12.9 Exercice : Loi de la partie entière et partie fractionnaire . . . . . . . . . . . 25
12.10 Exercice : Changement de variable quadratique . . . . . . . . . . . . . . . 26
12.11 Exercice : Loi log-normale . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
12.26 Proposition : translation et changement d’échelle . . . . . . . . . . . . . . 27
12.27 Proposition : Koenig Huygens . . . . . . . . . . . . . . . . . . . . . . . . . 28
12.17 Définition : Corrélation linéaire . . . . . . . . . . . . . . . . . . . . . . . . 29
12.32 Théorème : Inégalité de Markov . . . . . . . . . . . . . . . . . . . . . . . . 31
12.33 Théorème : Inégalité Bienaymé-Tchebychev . . . . . . . . . . . . . . . . . 31
12.21 Définition : Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . 32
12.36 Théorème : Théorème de la limite centrée . . . . . . . . . . . . . . . . . . . 33
12.39 Théorème : Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . 35
12.23 Définition : Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . 36

Classe MP-MP* page 3 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

I
Généralisation de la notion
de variables aléatoire réelle
Définition 12.1
On appelle variable aléatoire sur l’espace probabilisé (Ω, A, 𝑃) toute application :

𝑋 :Ω→R

vérifiant : Pour tout 𝐼 intervalle de R, 𝑋 −1 (𝐼 ) ∈ A

Notation : 𝐴 ⊂ R :, l’ensemble 𝑋 −1 (𝐴) = {𝑤 ∈ Ω, 𝑋 (𝑤) ∈ 𝐴} est noté "𝑋 ∈ 𝐴", par


exemple les événements 𝑋 −1 (] − ∞, 𝑥]) et 𝑋 −1 {𝑥 }} seront notés :
𝑋 −1 (] − ∞, 𝑥]) = ”𝑋 6 𝑥”, 𝑋 −1 {𝑥 }} = (𝑋 = 𝑥)
Remarque 12.1
Puisque tout intervalle de R est 𝜎-engendré par les intervalles de la forme ] − ∞, 𝑥], on
obtient la proposition suivante

Proposition 12.1
Une application 𝑋 : Ω → R est une variable aléatoire si et seulement si

∀𝑥 ∈ R : 𝑋 −1 (] − ∞, 𝑥]) ∈ A

Remarque 12.2
Si 𝐴 est une partie de la tribu borélienne BR qui est obtenu par conséquent par passage
au complémentaire, par réunion, par intersection au plus dénombrable d’intervalle de
la forme ] − ∞, 𝑥], et 𝑋 une variable aléatoire sur (Ω, T, 𝑃), alors ”𝑋 ∈ 𝐴” est bien un
événement de A.

Proposition 12.2

Si 𝑋 est une variable aléatoire, alors |𝑋 | et 𝑋 2 sont des variables aléatoires.


Preuve
Vient du fait que :
(|𝑋 | 6 𝑎) = (−𝑎 6 𝑋 6 𝑎)

Classe MP-MP* page 4 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

et
(𝑋 2 6 𝑎) = ∅, si 𝑎 < 0
(
√ √
(𝑋 2 6 𝑎) = (𝑋 6 𝑎) ∩ (𝑋 > − 𝑎), si 𝑎 > 0

Proposition 12.3
L’ensemble ( V, Ω, A) des variables aléatoires sur (Ω, A) est une R algèbre.

Preuve
Les deux applications 𝜔 → 0 et 𝜔 → 1 sont bien des variables aléatoires.
𝑋 1, 𝑋 2 deux variables aléatoires définies sur l’espace probabilisé (Ω, A, 𝑃). 𝜆 ∈ R.
1 Soit 𝑥 ∈ R
Soit 𝜔 ∈ (𝑋 1 + 𝑋 2 ) −1 (] − ∞, 𝑥 [), donc 𝑋 1 (𝜔) < 𝑥 − 𝑋 2 (𝜔). Soit 𝑟 𝜔 un rationnel entre les deux.
On a donc 𝑋 1 (𝜔) < 𝑟 𝜔 et 𝑋 2 (𝜔) < 𝑥 − 𝑟 𝜔 . Ce qui fait que
[  −1 
𝜔∈ 𝑋 1 (] − ∞, 𝑟 [) ∩ 𝑋 2−1 (] − ∞, 𝑥 − 𝑟 [)
𝑟 ∈Q

La réciproque est vérifiable.


[  −1 
(𝑋 1 + 𝑋 2 ) −1 (] − ∞, 𝑥 [) = 𝑋 1 (] − ∞, 𝑟 [) ∩ 𝑋 2−1 (] − ∞, 𝑥 − 𝑟 [)
𝑟 ∈Q

Q étant dénombrable donc (𝑋 1 + 𝑋 2 ) −1 (] − ∞, 𝑥 [) est bien un événement.


2 Soit 𝑥 ∈ R, on évite le cas trivial 𝜆 = 0.
Selon le signe de 𝜆, on a (𝜆𝑋 1 ) −1 (] − ∞, 𝑥]) = 𝑋 1−1 (] − ∞, 𝑥𝜆 ] ou 𝑋 1−1 ([ 𝑥𝜆 , +∞[. dans les deux cas c’est
bien un événement.
1 (𝑋 +𝑋 ) 2 −(𝑋 −𝑋 ) 2
2 1 2
3 En écrivant 𝑋 1𝑋 2 = 4 , par ce qui précède et la proposition précédente, on
obtient que 𝑋 1𝑋 2 est une variable aléatoire

Corollaire 12.4
Si (𝑋 1, .., 𝑋𝑘 ) est une famille finie de variables aléatoires réelles définie sur le même
espace probabilisé (Ω, A, 𝑃), alors
𝑘 𝑘
min(𝑋 1, ..., 𝑋𝑘 ), max(𝑋 1, .., 𝑋𝑘 ),
∑︁ Y
𝑋𝑖 , 𝑋𝑖
𝑖=1 𝑖=1

sont des variables aléatoires.

Classe MP-MP* page 5 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

I.1 Loi de probabilité


Définition 12.2
(Ω, A, 𝑃) un espace probabilisé, on appelle loi de la variable aléatoire 𝑋 (relativement à
𝑃) l’application :
𝑃𝑋 : 𝐼 (R) −→ R
𝐽 ↦−→ 𝑃 (𝑋 ∈ 𝐽 )
où 𝐼 (R) désigne toujours l’ensemble des intervalles de R.

Remarque 12.3
𝑋 une variable aléatoire sur un espace probabilisé (Ω, A, 𝑃).
Cette définition de loi de probabilité peut s’étendre à toute la tribu borélienne BR en
posant pour tout 𝐴 ∈ BR :
𝑃𝑋 (𝐴) = 𝑃 (𝑋 ∈ 𝐴)
Elle constituera une probabilité sur (R, BR ).
Interprétation de cette formule : on peut tirer au sort un élément 𝜔 ∈ Ω selon la règle
donnée par 𝑃, puis prendre son image par 𝑋 . Il revient au même de tirer directement au
sort un 𝑥 ∈ R selon la règle de tirage au sort donnée par 𝑃𝑋 .

I.2 Fonction de répartition


Définition 12.3
𝑋 une varibale aléatoire sur un espace probabilisé (Ω, A, 𝑃) ; on appelle fonction de
répartition de 𝑋 la fonction :

𝐹𝑋 : R −→ R
𝑡 ↦−→ 𝑃 (𝑋 6 𝑡)

Exercice 12.1

Déterminer la fonction de répartition de 𝜒𝐴 .

Propriétés 12.5

1 𝐹𝑋 est une fonction croissante.

Classe MP-MP* page 6 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

propriétés 12.5 (suite)

2 𝐹𝑋 est continue à droite en tout point.


3 lim 𝐹𝑋 (𝑥) = 0, lim 𝐹𝑋 (𝑥) = 1
𝑥→−∞ 𝑥→+∞
Preuve
1 Pour 𝑡 6 𝑡 0 , on a : ”𝑋 6 𝑡” =⇒ ”𝑋 6 𝑡”, et comme 𝑃 est croissante, donc 𝑃 (𝑋 6 𝑡) 6 𝑃 (𝑋 6 𝑡 0 ).
2 Comme 𝐹𝑋 est croissante il suffit de montrer que pour tout 𝑡 ∈ R,
1
lim 𝐹𝑋 (𝑡 + ) = 𝐹𝑋 (𝑡)
𝑛→+∞ 𝑛
Or
1 1
0 6 𝑃 (𝑋 6 𝑡 + ) − 𝑃 (𝑋 6 𝑡) = 𝑃 (𝑡 < 𝑋 6 𝑡 + )
𝑛 𝑛
𝐴𝑛 = ”𝑡 < 𝑋 6 𝑡 + 𝑛1 , (𝐴𝑛 ) est une suite d’événements décroissante, d’après le théorème de limite
monotone
lim 𝑃 (𝐴𝑛 ) = 𝑃 ( 𝐴𝑛 ) = 𝑃 (∅) = 0
\
𝑛→+∞
𝑛 ∈N∗

3 le théorème de limite monotone appliqué respectivement aux suites


(𝑋 6 −𝑛)𝑛 et (𝑋 6 𝑛), donne

lim 𝐹𝑋 (𝑡) = lim 𝑃 (𝑋 6 −𝑛) = 𝑃 ( (𝑋 6 −𝑛)) = 𝑃 (∅) = 0


\
𝑡 →−∞ 𝑛→+∞
𝑛 ∈N

lim 𝐹𝑋 (𝑡) = lim 𝑃 (𝑋 6 𝑛) = 𝑃 ( ”𝑋 6 𝑛”) = 𝑃 (Ω) = 1


[
𝑡 →+∞ 𝑛→+∞
𝑛 ∈N

Proposition 12.6 Règles de calcul

1 𝑃 (𝑋 > 𝑎) = 1 − 𝐹𝑋 (𝑎).
2 𝑃 (𝑋 > 𝑎) = 1− lim− 𝐹𝑋 (𝑥).
𝑥→𝑎

3 𝑃 (𝑥 < 𝑎) = lim− 𝐹𝑋 (𝑥).


𝑥→𝑎
4 𝑃 (𝑎 < 𝑋 6 𝑏) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎).
5 𝑃 (𝑎 6 𝑋 6 𝑏) = 𝐹𝑋 (𝑏)− lim− 𝐹𝑋 (𝑥).
𝑥→𝑎

6 𝑃 (𝑎 6 𝑋 < 𝑏) = lim− 𝐹𝑋 (𝑥)− lim− 𝐹𝑋 (𝑥).


𝑥→𝑏 𝑥→𝑎

7 𝑃 (𝑎 < 𝑋 < 𝑏) = lim− 𝐹𝑋 (𝑥) − 𝐹𝑋 (𝑎)


𝑥→𝑏

Classe MP-MP* page 7 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

8 𝑃 (𝑋 = 𝑎) = 𝐹𝑋 (𝑎)− lim− 𝐹𝑋 (𝑥).


𝑥→𝑎
Preuve
1 𝑃 (𝑋 > 𝑎) = 1 − 𝑃 (𝑋 6 𝑎).
𝑃 (𝑋 > 𝑎) = 𝑃 ( 𝑋 > 𝑎 − 𝑛1 ) = lim 𝑃 (𝑋 > 𝑎 − 𝑛1 ) = 1− lim 𝐹𝑋 (𝑎 − 𝑛1 ) = 1− lim ∗ 𝐹𝑋 (𝑥)
T
2
𝑛 ∈N ∗ 𝑛→+∞ 𝑛→+∞ 𝑥→𝑎

3 𝑃 (𝑋 < 𝑎) = 1 − 𝑃 (𝑋 > 𝑎) = lim− 𝐹𝑋 (𝑥).


𝑥→𝑎
4 𝑃 (𝑎 < 𝑋 6 𝑏) = 𝑃 (𝑋 6 𝑏\𝑋 6 𝑎) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎).
5 𝑃 (𝑎 6 𝑋 6 𝑏) = 𝑃 (𝑋 6 𝑏\𝑋 < 𝑎) = 𝐹𝑋 (𝑏)− lim− 𝐹𝑋 (𝑥).
𝑥→𝑎
6 𝑃 (𝑎 6 𝑋 < 𝑏) = 𝑃 (𝑋 < 𝑏) − 𝑃 (𝑋 < 𝑎) = lim 𝐹𝑋 (𝑥)− lim− 𝐹𝑋 (𝑥)

𝑥→𝑏 𝑥→𝑎

7 𝑃 (𝑎 < 𝑋 < 𝑏) = 𝑃 (𝑋 < 𝑏) − 𝑃 (𝑋 6 𝑎) = lim 𝐹𝑋 (𝑥) − 𝐹𝑋 (𝑎)


𝑥→𝑏 −
8 𝑃 (𝑋 = 𝑎) = 𝑃 (𝑋 6 𝑎) − 𝑃 (𝑋 < 𝑎) = 𝐹𝑋 (𝑎)− lim− 𝐹𝑋 (𝑥).
𝑥→𝑎

Remarque 12.4
La fonction de répartition caractérise complétement la loi de probabilité.

Corollaire 12.7
𝐹𝑋 est continue en 𝑎 si et seulement si 𝑃 (𝑋 = 𝑎) = 0

I.3 Vecteur de variables aléatoires


Définition 12.4

On appelle vecteur aléatoire sur l’espace probabilisé (Ω, A, P) à valeurs dans R𝑑 , tout
système 𝑋 = (𝑋 1, . . . , 𝑋𝑑 ) de variables aléatoires définies sur (Ω, A, P)

Définition 12.5

La loi du vecteur aléatoire 𝑋 = (𝑋 1, ..., 𝑋𝑑 ) dans R𝑑 est donné par :

𝑃𝑋 : 𝐼 (R)𝑑 −→ R
𝑑
(𝐽1, ..., 𝐽𝑑 ) ↦−→ 𝑃 ( (𝑋𝑖 ∈ 𝐽𝑖 )) = 𝑃 (𝑋 1 ∈ 𝐽1, ..., 𝑋𝑑 ∈ 𝐽𝑑 )
T
𝑖=1

Classe MP-MP* page 8 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Définition 12.6
On appelle couple de variables aléatoires réelles, tout système 𝑍 = (𝑋, 𝑌 ) de deux
variables aléatoires réelles 𝑋 et 𝑌 . et on appelle loi conjointe de deux variables aléatoires
X et Y la loi du couple 𝑍 = (𝑋, 𝑌 ).

Définition 12.7
Les lois des deux variables aléatoires 𝑋 et 𝑌 sont appelées les lois marginales de la
variable 𝑍 = (𝑋, 𝑌 ).

Définition 12.8 Fonction de répartition


On appelle fonction de répartition du couple aléatoire 𝑍 = (𝑋, 𝑌 ) la fonction 𝐹 (𝑋 ,𝑌 )
définies sur 𝑅 2 par pour tous réels 𝑥 et 𝑦

𝐹 (𝑋 ,𝑌 ) (𝑥, 𝑦) = 𝑃 (𝑋 6 𝑥, 𝑌 6 𝑦).

Remarque 12.5
La fonction de répartition se généralise à un vecteur aléatoire 𝑋 = (𝑋 1, ..., 𝑋𝑑 ) par :

𝑃𝑋 (𝑥 1, ..., 𝑥𝑑 ) = 𝑃 (𝑋 1 6 𝑥 1, ..., 𝑋𝑑 6 𝑥𝑑 )

I.4 Indépendance de variables aléatoires


Définition 12.9
Une famille (𝑋 𝑗 ) 𝑗 ∈𝐽 de variables aléatoires réelles est dite indépendante si, pour toute
famille (𝐼 𝑗 ) 𝑗 ∈𝐽 d’intervalles de R, la famille (𝑋 𝑗 ∈ 𝐼 𝑗 ) 𝑗 ∈𝐽 d’événements est indépendante.

Remarque 12.6
Compte tenu des résultats vus au chapitre précédent cette indépedance dite parfois
mutuelle est à distinguer de l’indépendance deux à deux de ces variables.

Remarque 12.7
La famille (𝑋𝑛 )𝑛 ∈𝐽 est indépendante si et seulement si pour toute partie finie 𝐾 =

Classe MP-MP* page 9 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

remarque 12.7 (suite)

(𝑛 1, ..., 𝑛𝑘 ) de 𝐽 et toute famille d’intervalles (𝐼𝑛𝑖 )16𝑖 6𝑘 d’intervalles de R.


𝑘
Y
𝑃 (𝑋𝑛1 ∈ 𝐼𝑛1 , ..., 𝑋𝑛𝑘 ∈ 𝐼𝑛𝑘 ) = 𝑃 (𝑋𝑛𝑖 ∈ 𝐼𝑛𝑖 )
𝑖=1

Proposition 12.8
𝑛 > 2, les variables 𝑋 1, ..., 𝑋𝑛 de l’espace probabilisé (Ω, A, 𝑃) sont indépendantes si et
seulement si Pour toute famille 𝐼 1, ..., 𝐼𝑛 d’intervalles de R.
𝑛
Y
𝑃 (𝑋 1 ∈ 𝐼 1, ..., 𝑋𝑛 ∈ 𝐼𝑛 ) = 𝑃 (𝑋𝑖 ∈ 𝐼𝑖 )
𝑖=1

Preuve
Le sens direct est évident :
Pour le sens indirect il suffit de compléter le système d’événement
(𝑋𝑖 1 ∈ 𝐼𝑖 1 ), ..., (𝑋𝑖𝑘 , 𝐼𝑖𝑘 ) par les événements sûrs


(𝑋 𝑗 ∈ 𝐼 𝑗 ), avec 𝐼 𝑗 = R, 𝑗 ∈ | [1, 𝑛]|\{𝑖 1, ..., 𝑖𝑘 }

𝑃 (𝑋𝑖 1 ∈ 𝐼𝑖 1 , ..., 𝑋𝑖𝑘 ∈ 𝐼𝑖𝑘 ) = 𝑃 (𝑋 1 ∈ 𝐼 1, ...., 𝑋𝑛 ∈ 𝐼𝑛 )


Y𝑛
= 𝑃 (𝑋𝑖 ∈ 𝐼𝑖 )
𝑖=1
= 𝑃 (𝑋𝑖 1 ∈ 𝐼𝑖 1 )....𝑃 (𝑋𝑖𝑘 ∈ 𝐼𝑖𝑘 )

Proposition 12.9 Indépendance héritée


Si la famille (𝑋 𝑗 )16 𝑗 6𝑛𝑘 est indépendante et si

0 < 𝑛 1 < ... < 𝑛𝑘

Alors la famille

𝑓1 (𝑋 1, ..., 𝑋𝑛1 ), 𝑓2 (𝑋𝑛1 +1, ..., 𝑋𝑛2 ), ..., 𝑓𝑘 (𝑋𝑛𝑘−1 +1, ..., 𝑋𝑛𝑘 )

est indépendante sous réserve que 𝑓𝑖 (𝑋𝑛𝑖−1 +1, . . . , 𝑋𝑛𝑖 ), 𝑖 = 1, . . . , 𝑘 soit une variable
aléatoire.

Classe MP-MP* page 10 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

II
Variable aléatoire à densité

Définition 12.10
(Ω, A, 𝑃) un espace probabilisé.
Une variable aléatoire réelle 𝑋 est dite de loi à densité ou de loi continue (relativement
à P ) si sa fonction de répartition 𝐹𝑋 est continue sur R et de classe 𝐶 1 sur R privé d’un
sous-ensemble fini 𝐷 (éventuellement vide).
On appelle alors densité de 𝑋 la fonction définie sur R par :
𝑓𝑋 (𝑡) = 𝐹𝑋0 (𝑡) pour 𝑡 ∈ R\𝐷 et des valeurs arbitraires sur 𝐷. (généralement on pose
𝑓𝑋 (𝑡) = 0 pour 𝑡 ∈ 𝐷).

Remarque 12.8
Si 𝑋 est de loi continue, alors pour tout 𝑎 ∈ R, 𝑃 (𝑋 = 𝑎) = 0.
En effet ceci vient du fait que pour une variable aléatoire quelconque : 𝑃 (𝑋 = 𝑎) =
𝐹𝑋 (𝑎)− lim− 𝐹𝑋 (𝑎).
𝑥→𝑎

Proposition 12.10
Si 𝑋 est une variable aléatoire continue de densité 𝑓𝑋 , alors :
Pour tout 𝑎, 𝑏 ∈ R, 𝑎 6 𝑏, 𝑎 𝑓𝑋 (𝑡)𝑑𝑡 converge et on a
∫𝑏

∫ 𝑏
𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎) = 𝑓𝑋 (𝑡)𝑑𝑡
𝑎

Plus généralement si 𝐼 est un intervalle qlq de borne inférieure 𝑎 et supérieure 𝑏, alors


𝑓 (𝑡)𝑑𝑡 converge et on a :

𝐼 𝑋

𝑃 (𝑋 ∈ 𝐼 ) = 𝑓𝑋 (𝑡)𝑑𝑡
𝐼

En particulier la fonction de répartition s’exprime en fonction de la densité :


∫ 𝑥
𝐹𝑋 (𝑥) = 𝑓𝑋 (𝑡)𝑑𝑡
−∞

Preuve

Classe MP-MP* page 11 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Si [𝑎, 𝑏] ∩ 𝐷 = ∅, alors le résultat est immédiat du fait que 𝐹𝑋 sera une primitive de 𝑓𝑋 sur [𝑎, 𝑏].
Supposons maintenant ∫ 𝑥que [𝑎, 𝑏] ∩ 𝐷 = {𝑥 1, ..., 𝑥𝑝 } est non vide. On pose 𝑥 0 = 𝑎, 𝑥𝑝+1 = 𝑏
Pour tout 𝑖 ∈ | [0, 𝑝] |, 𝑥 𝑖+1
𝑓𝑋 (𝑡)𝑑𝑡 converge car 𝐹𝑋 qui est primitive de 𝑓𝑋 sur ]𝑥𝑖 , 𝑥𝑖+1 [ admet une
𝑖
limite finie en 𝑥𝑖 et 𝑥𝑖+1 , et on a
∫ 𝑥𝑖+1
𝑓𝑋 (𝑡)𝑑𝑡 = 𝐹 (𝑥𝑖+1 ) − 𝐹 (𝑥𝑖 )
𝑥𝑖

D’où l’existence 𝑎 𝑓𝑋 et on a
∫𝑏

∫ 𝑏 𝑝 ∫ 𝑥𝑖+1
∑︁ 𝑝
∑︁
𝑓𝑋 = 𝑓𝑋 = 𝐹𝑋 (𝑥𝑖+1 ) − 𝐹𝑋 (𝑥𝑖 ) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎)
𝑎 𝑖=0 𝑥𝑖 𝑖=0

Si l’une des bornes de 𝐼 est infinie, alors en utilisant en plus le fait que :

lim 𝐹𝑋 (𝑥) = 0, lim 𝐹𝑋 (𝑥) = 1


𝑥→−∞ 𝑥→+∞

on obtient la convergence de 𝐼 𝑓𝑋 (𝑡)𝑑𝑡.


En faisant tendre 𝑎 vers −∞ et pour 𝑏 = 𝑥, on obtient 𝐹𝑋 (𝑥) = −∞ 𝑓𝑋 (𝑡)𝑑𝑡


∫𝑥

Propriété 12.11
La fonction densité de probabilité d’une variable aléatoire de loi continue est positive,
continue sur R privé d’un nombre fini de points et

𝑓𝑋 (𝑡)𝑑𝑡 = 1
R

II.1 Fonction d’une variable aléatoire continue


Calcul de densités pour 𝑌 = |𝑋 |.
Soit 𝑥 ∈ R, 𝑃𝑌 (𝑥) = 𝑃 (|𝑋 | 6 𝑥), donc si 𝑥 < 0 alors 𝐹𝑌 (𝑥) = 0.
Si 𝑥 ∈ R+ .

𝑃 (𝑌 6 𝑥) = 𝑃 (−𝑥 6 𝑋 6 𝑥)
= 𝐹𝑋 (𝑥) − 𝐹𝑋 (−𝑥)

Donc 𝐹𝑌 est continue sur R, 𝐶 1 sur R privé d’un nombre fini de points. En dérivant aux
bons points, la densité est donc donnée par

𝑓 |𝑋 | (𝑥) = 𝑓𝑋 (𝑥) + 𝑓𝑋 (−𝑥)

Classe MP-MP* page 12 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Sinon 𝑓 |𝑋 | (𝑥) = 0

Calcul de densités pour 𝑌 = 𝑎𝑋 + 𝑏,

si 𝑎 > 0,
𝑥 −𝑏 𝑥 −𝑏
𝑃 (𝑌 6 𝑥) = 𝑃 (𝑋 6 ) = 𝐹𝑋 ( )
𝑎 𝑎
si 𝑎 < 0,
𝑥 −𝑏 𝑥 −𝑏
𝑃 (𝑌 6 𝑥) = 𝑃 (𝑋 > ) = 1 − 𝐹𝑋 ( )
𝑎 𝑎
En dérivant aux bons points on obtient la densité de 𝑌

1 𝑥 −𝑏
𝑓𝑌 (𝑥) = 𝑓𝑋 ( ).
|𝑎| 𝑎

Calcul de densités pour 𝑌 = 𝑋 2 ,

si 𝑥 < 0, 𝑃 (𝑌 6 𝑥) = 0.
√ √ √ √
si 𝑥 > 0, 𝑃 (𝑌 6 𝑥) = 𝑃 (− 𝑥 6 𝑋 6 𝑥) = 𝐹𝑋 ( 𝑥) − 𝐹𝑋 (− 𝑥).
En dérivant on obtient la densité de 𝑌

𝑓𝑌 (𝑥) = 0 si 𝑥 < 0.

1 √ √
𝑓𝑌 (𝑥) = √ (𝑓𝑋 ( 𝑥) + 𝑓𝑋 (− 𝑥)) si 𝑥 > 0.
2 𝑥

Calcul de densités pour 𝑌 = 𝑒 𝑋 ,

si 𝑥 < 0, 𝑃 (𝑌 6 𝑥) = 0.
si 𝑥 > 0, 𝑃 (𝑌 6 𝑥) = 𝑃 (𝑋 6 ln(𝑥)) = 𝐹𝑋 (ln(𝑥)).
En dérivant on obtient la densité de 𝑌

𝑓𝑌 (𝑥) = 0 si 𝑥 < 0.

1
𝑓𝑌 (𝑥) = (𝑓𝑋 (ln(𝑥)) si 𝑥 > 0.
𝑥

Classe MP-MP* page 13 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

II.2 Lois continues usuelles

loi uniforme sur [𝑎, 𝑏] notée U( [𝑎, 𝑏]

Cette loi est l’analogue continu de l’équiprobabilité dans le cas discret. Elle permet de
modéliser le tirage d’un nombre aléatoire dans l’intervalle [a, b].
Une variable 𝑋 se répartissant de façon uniforme dans le segment [𝑎, 𝑏] est définie par la
1
densité 𝑓 = 𝑏−𝑎 sur [𝑎, 𝑏],
Autrement dit la densité de cette loi est

1
𝑓 = 1 [𝑎,𝑏 ] .
𝑏 −𝑎

La fonction de répartition sera donnée par :

 𝐹 (𝑥) = 0, si 𝑥 6 𝑎
 𝑋



 𝑏−𝑎 , si 𝑥 ∈ [𝑎, 𝑏].
𝐹𝑋 (𝑥) = 𝑥−𝑎
 𝐹𝑋 (𝑥) = 1, si 𝑥 > 𝑏.

Exercice 12.2

Si 𝑋 est une variable aléatoire réelle de fonction de répartition 𝐹 continue strictement


croissante et si 𝑈 est une variable aléatoire de loi uniforme sur [0, 1], alors la variable
aléatoire 𝑌 = 𝐹 −1 (𝑈 ) a même loi que 𝑋 .
solution 12.2, page 39

Exercice 12.3 Uniforme et binomiale

Soient (𝑋𝑘 )𝑘 ∈N des variables aléatoires suivant une loi uniforme sur [0, 1], indépen-
dantes.
1. Soit 0 6 𝑘 ∈ N et soit 𝑈𝑘 = min(𝑋 0, . . . , 𝑋𝑘 ). Démontrer que 𝑈𝑘 admet une
densité que l’on déterminera.
2. Soit 𝑁 une variable aléatoire suivant une loi binomiale B(𝑛, 1/2) et indépendante
avec les 𝑋𝑘 . Démontrer que 𝑈 = min(𝑋 0, . . . , 𝑋 𝑁 ) admet une densité que l’on
déterminera.
solution 12.3, page 39

Classe MP-MP* page 14 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

II.3 loi exponentielle de paramètre 𝜆 notée E(𝜆)


Une variable aléatoire suit une loi exponentielle de paramètre 𝜆 > 0 si sa densité de
probabilité est :
𝑓 (𝑥) = 𝜆𝑒 −𝜆𝑥 1R+ (𝑥).
Sa fonction de répartition est :
(
0, si 𝑥 6 0
∫ 𝑥
𝐹𝑋 (𝑥) = 𝜆𝑒 −𝜆𝑡 1R+ (𝑡)𝑑𝑡 =
−∞ 1 − 𝑒 −𝜆𝑥 , si 𝑥 > 0

En pratique, plutôt que de travailler avec la fonction de répartition d’une loi exponentielle,
il est plus commode d’utiliser la fonction de survie 𝐺 :
(
1, si 𝑥 6 0,
𝐺 (𝑥) = 𝑃 (𝑋 > 𝑥) = 1 − 𝐹𝑋 (𝑥) = −𝜆𝑥
𝑒 , si 𝑥 > 0.

Modélisation
Les lois exponentielles sont souvent choisies pour modéliser des temps d’attente :
temps d’attente à partir de maintenant du prochain tremblement de terre, du prochain
faux numéro sur une ligne téléphonique, de la prochaine désintégration d’un atome
de radium, etc. La raison de ce choix est la propriété d’absence de mémoire en temps
continu qui caractérise la famille des lois exponentielles.

Exercice 12.4

Une variable aléatoire positive est dite sans mémoire si :

∀𝑡, 𝑠 > 0 : 𝑃 (𝑋 > 𝑡 + 𝑆/𝑋 > 𝑡) = 𝑃 (𝑋 > 𝑠)

Montrer qu’une variable aléatoire positive à densité est sans mémoire si, et seulement si
elle suit une loi exponetielle.
solution 12.4, page 40

Exercice 12.5

Soit 𝑈 une variable aléatoire de loi uniforme sur [0, 1]. Démontrer que la variable
aléatoire 𝑋 = − ln 𝑈 suit une loi exponentielle.
solution 12.5, page 41

Classe MP-MP* page 15 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Exercice 12.6 Lien entre lois exponentielles et lois géométriques

Soit 𝑋 une variable aléatoire suivant une loi exponentielle de paramètre 1. On note
𝑌 = 𝑒 (𝑋 ) sa partie entière “supérieure”, c’est-à-dire que 𝑒 (1.5) = 2 et 𝑒 (3) = 3.
1. Démontrer que 𝑌 suit une loi géométrique dont on précisera le paramètre.
2. On note 𝑍 = 𝑌 − 𝑋 . Quelle est sa fonction de répartition ?
3. En déduire que 𝑍 est une variable aléatoire à densité dont la densité est

𝑒𝑥
𝑓 (𝑥) = 1 [0,1] (𝑥).
𝑒 −1
solution 12.6, page 41

II.4 loi normale (ou Gaussiènne) N (𝑚, 𝜎 2 )


Une variable aléatoire suit la normale N (𝑚, 𝜎 2 ) si sa densité est
1 1 𝑥 −𝑚 2
𝑓 (𝑥) = √ 𝑒 − 2 ( 𝜎 ) .
𝜎 2𝜋
Si 𝑋 suit la loi normale N (𝑚, 𝜎 2 ), alors
𝑌 = 𝑎𝑋 + 𝑏 ↩→ N (𝑎𝑚 + 𝑏, 𝑎 2𝜎 2 )
En particulier si 𝑋 suit la loi normale N (𝑚, 𝜎 2 ), alors
𝑋 −𝑚
𝑍= ↩→ N (0, 1)
𝜎
dite loi normale centrée réduite
Modélisation
Il a été constaté que nombre de phénomènes financiers, tels que les valorisations
boursières de certains portefeuilles, l’évolution de cours de certains indices, etc...
semblaient suivre une distribution dite "normale", c’est à dire une loi de Gauss.
La loi de Gauss ou "loi normale" est une loi de distribution universellement connue de
par les courbes en forme de cloche qu’elle génère, et qui se retrouve dans nombres de
phénomènes de la vie courante.
Ainsi, par exemple, il est observé que la distribution des tailles des individus d’un pays
ou d’un large échantillon d’hommes tiré au hasard suit une courbe de gauss, dont le
sommet de la cloche est la taille moyenne, et l’abscisse représenterait le pourcentage

Classe MP-MP* page 16 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

de la population de la taille considérée.


On constate donc que dans un phénomène obéissant aux lois de Gauss, un nombre
important d’occurrences du phénomène se concentrent autour de sa valeur moyenne,
et que plus on s’éloigne de la moyenne, plus la probabilité de rencontrer une occurrence
du phénomène mesuré diminue rapidement.
C’est ce phénomène que les néo-financiers de l’après guerre ont cru pouvoir identifier
dans de nombreuses séries de variations de cours sur divers marchés. Ils en ont déduit
que nombre de phénomènes économiques devaient suivre des lois normales.

II.5 loi gamma Γ(𝛼, 𝜆)


∫ +∞
On rappelle que Γ(𝑥) = 0 𝑡 𝑥−1𝑒 −𝑡 𝑑𝑡 pour 𝑥 > 0.
Pour 𝛼 > 0, 𝜆 > 0, une variable aléatoire 𝑋 suit la loi Γ(𝛼, 𝜆) dite loi Gamma de paramètres
𝛼, 𝜆 si sa fonction de densité est :
𝜆𝛼 𝛼−1 −𝜆𝑥
𝑓 (𝑥) = 𝑥 𝑒 1R+ (𝑥)
Γ(𝛼)
On a Γ(1, 𝜆) est une loi exponentielle de paramètre 𝜆.

Modélisation :
La loi Gamma peut décrire des phénomènes de durée de vie, en assurance pour l’étude
du temps écoulé entre deux sinistres . En général pour des distributions fortement
asymétriques avec une décroissance rapide en queue de distribution, une loi Gamma

Classe MP-MP* page 17 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

peut être un bon modèle.

Exercice 12.7 Loi de Pareto

La variable aléatoire 𝑇 , représentant la durée de vie en heures d’un composant électro-


nique, a pour densité
10
𝑓 (𝑡) = 2 𝜒 [10,+∞[
𝑡
.
1 Calculer 𝑃 (𝑇 > 20).
2 Quelle est la fonction de répartition de 𝑇 ? La représenter.
3 Quelle est la probabilité que parmi 6 composants indépendants, au moins 3 d’entre
eux fonctionnent durant au moins 15 heures.
solution 12.7, page 42

Classe MP-MP* page 18 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

II.6 Loi de la somme et stabilité


Théorème 12.12
Si (𝑋 1, 𝑋 2 ) est un couple de variables aléatoires réelles indépendantes telles que 𝑋 1 soit
discrète, d’ensemble de valeurs possibles 𝐷 1 , et𝑋 2 soit continue, de densité 𝑓2 . Sous
réserve que la fonction

𝑓 :𝑠 →
∑︁
𝑃 (𝑋 1 = 𝑢) 𝑓2 (𝑠 − 𝑢)
𝑢 ∈𝐷 1

soit continue sauf éventuellement en un nombre fini de points, alors :


la variable aléatoire 𝑆 = 𝑋 1 + 𝑋 2 est à densité de densité définie en dehors d’un nombre
finie de points par :
𝑓 :𝑠 →
∑︁
𝑃 (𝑋 1 = 𝑢) 𝑓2 (𝑠 − 𝑢)
𝑢 ∈𝐷 1
Preuve
Soit 𝑠 ∈ R. [
(𝑋 1 + 𝑋 2 6 𝑠) = (𝑋 1 = 𝑢, 𝑋 2 6 𝑠 − 𝑢)
𝑢 ∈𝐷 1
Les deux variables sont indépendantes et 𝐷 1 est au plus dénombrable. Donc
∑︁
𝑃 (𝑋 1 + 𝑋 2 6 𝑠) = 𝑃 (𝑋 1 = 𝑢, 𝑋 2 6 𝑠 − 𝑢)
𝑢 ∈𝐷 1
∑︁
= 𝑃 (𝑋 1 = 𝑢)𝑃 (𝑋 2 6 𝑠 − 𝑢)
𝑢 ∈𝐷 1
∑︁ ∫ 𝑠−𝑢
= 𝑃 (𝑋 1 = 𝑢) 𝑓 (𝑡)𝑑𝑡
𝑢 ∈𝐷 1 −∞
∑︁ ∫ 𝑠
= 𝑃 (𝑋 1 = 𝑢) 𝑓 (𝑡 − 𝑢)𝑑𝑡
𝑢 ∈𝐷 1 −∞
∫ 𝑠 !
∑︁
= 𝑃 (𝑋 1 = 𝑢) 𝑓 (𝑡 − 𝑢) 𝑑𝑡
−∞ 𝑢 ∈𝐷 1

Dans le cas discret infini où 𝐷 = (𝑢𝑛 )𝑛 ∈N , l’interversion de série et integrale vient de la convergence
de la série 𝑛 −∞ |𝑃 (𝑋 1 = 𝑢𝑛 ) 𝑓 (𝑡 − 𝑢𝑛 )|𝑑𝑡, cette convergence qui est dûe au fait que toute somme
P ∫𝑠
finie est inférieure à 𝑃 (𝑋 1 + 𝑋 2 6 𝑠)

Théorème 12.13
Si (𝑋 1, 𝑋 2 ) est un couple de variables aléatoires réelles indépendantes dont les lois sont

Classe MP-MP* page 19 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

continues, de densités respectives 𝑓1 et 𝑓2 , et sous réserve que la fonction


∫ +∞ ∫ +∞
𝑓 :𝑥 → 𝑓1 (𝑡)𝑓2 (𝑥 − 𝑡)𝑑𝑡 = 𝑓1 (𝑥 − 𝑡) 𝑓2 (𝑡)𝑑𝑡
−∞ −∞

soit continue sauf éventuellement en un nombre fini de points alors la variable aléatoire
𝑆 = 𝑋 1 + 𝑋 2 est à densité, de densité définie en dehors d’un nombre fini de points par :
∫ +∞
𝑓 :𝑥 → 𝑓1 (𝑡)𝑓2 (𝑥 − 𝑡)𝑑𝑡
−∞

Cette fonction est appelée le produit de convolution des densités 𝑓1 et 𝑓2 .

Théorème 12.14 Stabilité de la loi Gamma


(𝑋𝑘 )𝑘=1,..,𝑛 suite de variables aléatoires indépendantes suivants respectivement les lois
Gamma Γ(𝛼𝑘 , 𝜆)𝑘=1,...,𝑛 , alors
𝑛 𝑛
𝑋𝑘 ↩→ Γ(
∑︁ ∑︁
𝛼𝑘 , 𝜆)
𝑘=1 𝑘=1

Preuve
Il suffit de le montrer pour le cas 𝑛 = 2. Le cas général s’en déduit par récurrence en passant par le
théorème d’indépendance héritée.
Posons 𝑋 = 𝑋 1 + 𝑋 2 .
Donc déja pour 𝑥 6 0, 𝑓𝑋 (𝑥) = 0.
Supposons que 𝑥 > 0.
∫ 𝑥 𝛼 1 𝛼 1 −1 −𝜆𝑡 𝛼 2
𝜆 𝑡 𝑒 𝜆 (𝑥 − 𝑡)𝛼 2 −1𝑒 −(𝑥−𝑡 )𝜆
𝑓𝑋 (𝑥) = 𝑑𝑡
0 Γ(𝛼 1 ) Γ(𝛼 2 )
𝜆𝛼 1 +𝛼 2 𝑒 −𝜆𝑥
∫ 𝑥
= 𝑡 𝛼 1 −1 (𝑥 − 𝑡)𝛼 2 −1𝑑𝑡
Γ(𝛼 1 )Γ(𝛼 2 ) 0
∫ 1
𝜆𝛼 1 +𝛼 2 𝑥 𝛼 1 +𝛼 2 −1𝑒 −𝜆𝑥
= 𝑢 𝛼 1 −1 (1 − 𝑢)𝛼 2 −1𝑑𝑡
Γ(𝛼 1 )Γ(𝛼 2 ) 0
∫1
On pose 𝑐 = 0 𝑢 𝛼 1 −1 (1 − 𝑢)𝛼 2 −1𝑑𝑡.
𝛼 1 +𝛼 2 𝛼 1 +𝛼 2 −1 −𝜆𝑥
𝑓𝑋 (𝑥) = 𝑐 𝜆 Γ (𝛼𝑥 )Γ (𝛼 )𝑒 , 𝑓𝑋 est bien continue sur R∗ .
1 2
En utilisant la condition de normalisation

𝑓𝑋 (𝑡)𝑑𝑡 = 1
R

Classe MP-MP* page 20 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

∫1 Γ (𝛼 )Γ (𝛼 )
On retrouve 𝑐 = 0 𝑢 𝛼 1 −1 (1 − 𝑢)𝛼 2 −1𝑑𝑡 = Γ (𝛼1 +𝛼 )2 , puis
1 2

𝑥 𝛼 1 +𝛼 2 −1𝑒 −𝜆𝑥
𝑓𝑋 (𝑥) =
Γ(𝛼 1 + 𝛼 2 )𝑏 𝛼 1 +𝛼 2
𝑋 suit donc la loi Γ(𝛼 1 + 𝛼 2 .𝜆).
NB Le théorème du produit de convolution nous permet de retrouver la formule fondamentale :
∫ 1
Γ(𝑥)Γ(𝑦)
𝑥, 𝑦 > 0 𝑡 𝑥−1 (1 − 𝑡) 𝑦−1𝑑𝑡 =
0 Γ(𝑥 + 𝑦)

Théorème 12.15 Somme de lois exponentielles


𝜆 ∈ R∗+ , Si (𝑋𝑘 )𝑘=1,...,𝑛 est une famille de variables aléatoires indépendantes suivant
𝑛
la même loi exponentielle, de paramètre 𝜆, alors la variable 𝑋𝑘 suit la loi gamma
P
𝑘=1
Γ(𝑛, 𝜆).
Preuve
Se déduit du théorème de stabilité de la loi Γ puisque une loi E(𝜆) est une loi Γ(1, 𝜆)

Théorème 12.16 Stabilité de la loi normale


Soit 𝑋 1, ..., 𝑋𝑛 mutuellement indépendantes, telles que pour tout 𝑖 ∈ | [1, 𝑛]|, 𝑋𝑖 ↩→
N (𝑚𝑖 , 𝜎𝑖2 ). Alors
𝑛 𝑛 𝑛
𝑋𝑖 ↩→ N ( 𝜎𝑖2 )
∑︁ ∑︁ ∑︁
𝑚𝑖 ,
𝑖=1 𝑖=1 𝑖=1

En particulier
1 Soit 𝑋 1, ..., 𝑋𝑛 mutuellement indépendantes, suivant toutes la même loi N (𝑚, 𝜎 2 ).
Alors
𝑛
𝑋𝑖 ↩→ N (𝑛𝑚, 𝑛𝜎 2 )
∑︁
𝑖=1

2 Si (𝑋 1, ..., 𝑋𝑛 ) sont mutuellement indépendantes et suivent toutes la même loi


𝑁 (0, 1), alors :
𝑛
𝑋𝑖 ↩→ N (0, 𝑛)
∑︁
𝑖=1

Preuve

Classe MP-MP* page 21 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Il suffit de démontrer le résultat pour 𝑛 = 2.


Soit 𝑋 ↩→ N (𝑚, 𝜎 2 ) et 𝑌 ↩→ 𝑁 (𝑚 0, 𝜎 02 ), avec 𝑋 et 𝑌 indépendantes.
On commence à le démontrer pour le cas où 𝑚 = 𝑚 0 = 0.
2 2
1
∫ +∞
− 𝑡 2 − (𝑥 −𝑡02)
𝑓𝑋 +𝑌 (𝑥) = 𝑒 2𝜎 𝑒 2𝜎 𝑑𝑡
2𝜋𝜎𝜎 0 −∞
2
1
∫ +∞
1 ©­©­ 1 1 2
√︂
𝑥 ® + 𝑥
exp
ª ª
= − + 𝑡 −
𝜎 2 𝜎 02 2
®
2𝜋𝜎𝜎 0 −∞ 2 ­­ 02
√︃
𝜎 02 𝜎12 + 𝜎102 +
® 𝜎 𝜎 ®
«« ¬ ¬
2
2
1 1 ©­ 1 1
∫ +∞ √︂
− 21 2𝑥 02 𝑥
exp
ª
= 𝑒 𝜎 +𝜎 − +
­ 𝜎 2 𝜎 02 𝑡 − ®
2𝜋𝜎𝜎 0 2
√︃
1 1
®
−∞ 𝜎 02 𝜎 2 + 𝜎 02
« ¬
√︃
Puis le changement de variable 𝑢 = 𝜎12 + 𝜎102 𝑡 − √︃ 𝑥1 1 .
𝜎 02 +
𝜎2 𝜎 02
On obtient  2
0
1 − 12 √ 𝑥
2
𝜎 +𝜎 02
𝑓𝑋 +𝑌 (𝑥) = √ √ 𝑒
2𝜋 𝜎 2 + 𝜎 02
Donc 𝑋 + 𝑌 ↩→ N (0, 𝜎 2 + 𝜎 02 ).
Si maintenant 𝑚, 𝑚 0 sont quelconques 𝑋 ↩→ N (𝑚, 𝜎 2 ), 𝑌 ↩→ N (𝑚 0, 𝜎 02 ) . Alors

𝑋 − 𝑚 ↩→ N (0, 𝜎 2 ), 𝑌 − 𝑚 0 ↩→ N (0, 𝜎 02 )

D’après le théorème d’indépendance héritée 𝑋 − 𝑚 et 𝑌 − 𝑚 0 sont indépendantes, et donc

𝑋 + 𝑌 − (𝑚 + 𝑚 0 ) ↩→ 𝑁 (0, 𝜎 2 + 𝜎 02 )

et
𝑋 + 𝑌 ↩→ N (𝑚 + 𝑚 0, 𝜎 2 + 𝜎 02 )

II.7 Espérance, moment


Définitions
Définition 12.11
𝑋 une variable aléatoire continue de densité de probabilité 𝑓𝑋 , on dit que 𝑋 admet
une espérance si la fonction 𝑡 → 𝑡 𝑓𝑋 (𝑡) est intégrable sur R, auquel cas on définit
l’espérance de 𝑋 par ∫ +∞
𝐸 (𝑋 ) = 𝑡 𝑓𝑋 (𝑡)𝑑𝑡
−∞

Classe MP-MP* page 22 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Lorsqu’une variable X vérifie 𝐸 [𝑋 ] = 0, on dit que la variable est centrée.

Proposition 12.17
La variable aléatoire continue 𝑋 admet une espérance si et seulement si il exite ( ou
quelque soit ) 𝑏, 𝑐 ∈ R, 𝑏 < 𝑐 tel que la fonction

𝑡 → 𝑡 𝑓𝑋 (𝑡)

est intégrable sur ] − ∞, 𝑏] et sur [𝑐, +∞[.


Preuve
Découle du fait que sur ]𝑏, 𝑐 [ la fonction 𝑡 → 𝑡 est bornée et 𝑓𝑋 (𝑡) est intégrable.

Exercice 12.8 Une autre expression de l’espérance

Soit 𝑋 une variable aléatoire à valeurs dans R+ , de densité 𝑓 continue sur R+ , et de


fonction de répartition 𝐹 . On pose, pour tout réel 𝑥 positif,
∫ 𝑥
𝜑 (𝑥) = 𝑡 𝑓 (𝑡)𝑑𝑡
0

1 Montrer que :
∫ 𝑥
+
∀𝑥 ∈ R , 𝜑 (𝑥) = (1 − 𝐹 (𝑡))𝑑𝑡 − 𝑥𝑃 (𝑋 > 𝑥)
0

∫2 +∞ On suppose dans cette question que l’intégrale


0
(1 − 𝐹 (𝑡))𝑑𝑡 converge.
Montrer que 𝜑 est croissante et majorée sur R+ puis en déduire que 𝑋 a une
espérance.
Montrer que ∫ +∞
∀𝑥 ∈ R+, 0 6 𝑥𝑃 (𝑋 > 𝑥) 6 𝑡 𝑓 (𝑡)𝑑𝑡
𝑥

Établir que ∫ +∞
𝐸 (𝑋 ) = 𝑃 (𝑋 > 𝑡)𝑑𝑡
0
solution 12.8, page 42

Classe MP-MP* page 23 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

II.8 Transferts

Théorème 12.18 Théorème de transfert


Si 𝑋 est une variable aléatoire continue, et 𝑔 continue, alors la variable aléatoire 𝑌 = 𝑔(𝑋 )
admet une espérance si et seulement si la fonction 𝑡 → 𝑔(𝑡)𝑓𝑋 (𝑡) est intégrable sur R.
Auquel cas : ∫ +∞
𝐸 (𝑔(𝑋 )) = 𝑔(𝑡) 𝑓𝑋 (𝑡)𝑑𝑡
−∞

Proposition 12.19
𝑋 admet une espérance si et seulement si |𝑋 | l’admet. Au quel cas :

|𝐸 (𝑋 )| 6 𝐸 (|𝑋 |)

Preuve
Une démonstration n’utilisant pas le théorème de transfert.
|𝑋 | admet une espérance si et seulement si 𝑡 → 𝑡 𝑓 |𝑋 | (𝑡) est intégrable, on sait qu’en dehors d’un
nombre fini de points (
𝑓 |𝑋 | (𝑡) = 0, si 𝑡 6 0
𝑓 |𝑋 | (𝑡) = 𝑓𝑋 (𝑡) + 𝑓𝑋 (−𝑡)
Donc si 𝑋 admet une espérance, alors on aura l’intégrabilité de 𝑡 → 𝑡 𝑓𝑋 (𝑡) et 𝑡 → 𝑡 𝑓𝑋 (−𝑡), D’où celle
de 𝑡 → 𝑡 𝑓 |𝑋 | (𝑡).
Inversement si 𝑡 → 𝑡 𝑓 |𝑋 | (𝑡) est intégrable, alors pour tout 𝑎 > 0.

∫ 𝑎 ∫ 0 ∫ 𝑎
|𝑡 |𝑓𝑋 (𝑡)𝑑𝑡 = |𝑡 |𝑓𝑋 (𝑡)𝑑𝑡 + |𝑡 |𝑓𝑋 (𝑡)𝑑𝑡
−𝑎 0
∫−𝑎𝑎
= |𝑡 |(𝑓𝑋 (−𝑡) + 𝑓𝑋 (𝑡))𝑑𝑡
0
∫ 𝑎
= |𝑡 |(𝑓 |𝑋 | (𝑡)𝑑𝑡
0

D’où l’intégrabilité de 𝑡 → 𝑡 𝑓𝑋 (𝑡) et l’existence de l’espérance de 𝑋 .


Auquel cas nous avons :
∫ 𝑎 ∫ 𝑎 ∫ 𝑎
| 𝑡 𝑓𝑋 (𝑡)𝑑𝑡 | 6 |𝑡 |𝑓𝑋 (𝑡)𝑑𝑡 6 |𝑡 |(𝑓 |𝑋 | (𝑡)𝑑𝑡
−𝑎 −𝑎 0

En faisant tendre 𝑎 vers +∞, on obtient :

|𝐸 (𝑋 )| 6 𝐸 (|𝑋 |)

Classe MP-MP* page 24 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

II.9 Propriétés de l’espérance


Proposition 12.20
Si 𝑋 et 𝑌 sont des variables aléatoires réelles sur l’espace probabilisé (Ω, A, 𝑃), si 𝑌
admet une espérance et si |𝑋 | 6 𝑌 alors 𝑋 admet une espérance. Auquel cas :

|𝐸 (𝑋 )| 6 𝐸 (𝑌 )

Propriétés 12.21

1. linéarité : 𝐸 (𝑋 + 𝜆𝑌 ) = 𝐸 (𝑋 ) + 𝜆𝐸 (𝑌 ) si les espérances de 𝑋 et 𝑌 existent.


2. positivité : si 𝑋 > 0, alors 𝐸 (𝑋 ) > 0.
3. croissance : si 𝑋 > 𝑌 , alors 𝐸 (𝑋 ) > 𝐸 (𝑌 ).
Preuve
1 Admise
2 Si 𝑋 > 0, alors 𝐹𝑋 (𝑥) = 0 si 𝑥 6 0. Il s’en suit que 𝑓𝑋 (𝑡) = 0 si 𝑥 > 0. Auquel cas :
∫ +∞
𝐸 (𝑋 ) = 𝑡 𝑓𝑋 (𝑡)𝑑𝑡 > 0
0

3 Si 𝑋 > 𝑌 , alors 𝑋 − 𝑌 > 0 et donc 𝐸 (𝑋 ) − 𝐸 (𝑌 ) = 𝐸 (𝑋 − 𝑌 ) > 0.

Définition 12.12
Si 𝑋 admet un moment d’ordre 1, on appelle variable centrée associée à 𝑋 la variable
aléatoire centrée
𝑋˜ = 𝑋 − 𝐸 (𝑋 )

Proposition 12.22
Soit (𝑋 1, . . . , 𝑋 𝑁 ) une suite de v.a. indépendantes sur (Ω, A, 𝑃). Alors le produit
𝑋 1 · · · 𝑋 𝑁 a une espérance si et seulement si chaque 𝑋 𝑗 a une espérance. Dans ces
conditions l’espérance du produit est le produit des espérances :
IE(𝑋 1 · · · 𝑋 𝑁 ) = IE(𝑋 1 ) · · · IE(𝑋 𝑁 ).

Exercice 12.9 Loi de la partie entière et partie fractionnaire

Soit 𝑋 ↩→ E(𝜆).

Classe MP-MP* page 25 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

1 Déterminer la loi de 𝑌 = [𝑋 ] (partie entière de 𝑋 ) et calculer 𝐸 (𝑌 ).


2 Déterminer la loi de 𝑍 = 𝑋 − [𝑋 ] et calculer 𝐸 (𝑍 ).
solution 12.9, page 43

Exercice 12.10 Changement de variable quadratique

Soit 𝑋 une variable aléatoire réelle suivant la loi uniforme sur le segment [−1, 2].
1 Quelle est la loi de 𝑌 = 𝑋 2 ?
2 Déterminer l’espérance de 𝑌 .
solution 12.10, page 44

Exercice 12.11 Loi log-normale

Soient 𝑚, 𝜎 deux réels. On dit que 𝑋 suit une loi log-normale de paramètres (𝑚, 𝜎 2 ) si
𝑌 = ln 𝑋 suit une loi normale N (𝑚, 𝜎 2 ). On supposera dans la suite 𝑚 = 0 et 𝜎 = 1.
1. Exprimer la fonction de répartition de 𝑋 à l’aide de la fonction de répartition 𝜙
de la loi normale centrée réduite.
2. Calculer sa densité.

3. Démontrer que 𝐸 (𝑋 ) = 𝑒.
solution 12.11, page 44

II.10 Moments d’ordre 2, variance convariance


Définition 12.13

Le moment d’ordre 𝑘 d’une variable aléatoire 𝑋 est sous reserve d’existence 𝐸 (𝑋 𝑘 )

Proposition 12.23

𝑋 admet un moment d’ordre 𝑘 si et seulement si la fonction : 𝑡 → 𝑡 𝑘 𝑓𝑋 (𝑡) est intégrable.


Preuve
Par application du théorème de transfert.

Proposition 12.24
Si la variable aléatoire réelle 𝑋 admet un moment d’ordre 𝑘 ∈ N∗ , alors elle admet un
moment d’ordre 𝑗 pour tout 𝑗 ∈ {1, ..., 𝑘 } ; de même la variable aléatoire réelle 𝑋 + 𝛼

Classe MP-MP* page 26 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

admet un moment d’ordre 𝑘, pour tout réel 𝛼.


Preuve
L’intégrabilité est importante au voisinage de ∞.
Or pour |𝑡 | > 1, |𝑡 | 𝑗 𝑓𝑋 (𝑡) 6 |𝑡 |𝑘 𝑓𝑋 (𝑡), ∀𝑗 6 𝑘, donc l’existence de 𝐸 (𝑋 𝑘 ) entraine celle de 𝑋 𝑗 .
L’existence de 𝐸 ((𝑋 + 𝑎)𝑘 ) se déduit de la formule du binôme.

Définition 12.14
Si la variable aléatoire réelle 𝑋 admet un moment d’ordre 2, on appelle variance de 𝑋 la
quantité
𝑉 (𝑋 ) = 𝐸 ((𝑋 − 𝐸 (𝑋 )) 2 )
et l’écart type de 𝑋 la racine carrée de la variance :
√︁
𝜎 (𝑋 ) = 𝑉 (𝑋 )

et par le théorème de transfert

Proposition 12.25
Si 𝑋 admet une moment d’ordre 2, alors la variance de 𝑋 est donnée par :
∫ +∞
Var(𝑋 ) = (𝑡 − 𝐸 (𝑋 )) 2 𝑓𝑋 (𝑡)𝑑𝑡
−∞

Proposition 12.26 translation et changement d’échelle


Si 𝑋 a un moment d’ordre 2, alors

∀𝑎 ∈ R, ∀𝑏 ∈ R, 𝑉 (𝑎𝑋 + 𝑏) = 𝑎 2𝑉 (𝑋 ), 𝜎 (𝑎𝑋 + 𝑏) = |𝑎|𝜎 (𝑋 ).

Définition 12.15
Si 𝑋 admet un moment d’ordre 2, on appelle variable centrée réduite associée à 𝑋 la
variable aléatoire réelle
(𝑋 − 𝐸 (𝑋 ))
𝑋∗ =
𝜎 (𝑋 )
C’est une variable d’espérance nulle et de variance égale à 1.

Classe MP-MP* page 27 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Remarque 12.9
La variance est donc une moyenne de l’écart entre 𝑋 et sa moyenne au carré. Elle
caractérise la dispersion de 𝑋 par rapport ‘ a sa moyenne. Pour des raisons d’homogénéité,
on lui préfère souvent dans les applications pratiques l’écart-type.

Proposition 12.27 Koenig Huygens


On a
𝑉 (𝑋 ) = 𝐸 (𝑋 2 ) − (𝐸 (𝑋 )) 2

Proposition 12.28
Si 𝑋 et 𝑌 sont des variables aléatoires réelles admettant un moment d’ordre 2, alors :
1 la variable aléatoire 𝑋𝑌 admet une espérance et

(𝐸 (𝑋𝑌 )) 2 6 𝐸 (𝑋 2 )𝐸 (𝑌 2 ) (Cauchy-Schwarz)

avec égalité si et seulement si 𝑋 = 0 ou ∃𝛼 : 𝑌 = 𝛼𝑋 presque sûrement.


2 𝑆 = 𝑋 + 𝑌 admet un moment d’ordre 2 et sa variance 𝑉 (𝑆) est donnée par :

𝑉 (𝑆) = 𝑉 (𝑋 ) + 𝑉 (𝑌 ) + 2𝐸 (𝑋 − 𝐸 (𝑋 ))(𝑌 − 𝐸 (𝑌 ))

Définition 12.16
Si 𝑋 et 𝑌 sont des variables aléatoires réelles admettant un moment d’ordre 2, on définit
la covariance du couple (𝑋, 𝑌 ) par la formule

𝐶 (𝑋, 𝑌 ) = 𝐸 ((𝑋 − 𝐸 (𝑋 ))(𝑌 − 𝐸 (𝑌 ))) = 𝐸 (𝑋𝑌 ) − 𝐸 (𝑋 )𝐸 (𝑌 ).

Avec cette notation on obtient

𝑉 (𝑋 + 𝑌 ) = 𝑉 (𝑋 ) + 𝑉 (𝑌 ) + 2𝐶 (𝑋, 𝑌 )

Remarque 12.10
La covariance entre les variables 𝑋 et 𝑌 un nombre permettant de quantifier leurs écarts
conjoints par rapport à leurs espérances respectives

Remarque 12.11
La convariance est une application bilinéaire symétrique.

Classe MP-MP* page 28 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Propriété 12.29
Si 𝑋 1, ..., 𝑋𝑛 sont des variables aléatoires, alors
𝑛 𝑛
Var( Var(𝑋𝑖 ) + 2
∑︁ ∑︁ ∑︁
𝑋𝑖 ) = 𝐶 (𝑋𝑖 , 𝑋 𝑗 )
𝑖=1 𝑖=1 𝑖< 𝑗

Preuve
Une récurrence fait l’affaire.

Proposition 12.30
Si 𝑋 et 𝑌 sont des variables aléatoires réelles admettant un moment d’ordre 2 et si ces
variables sont indépendantes, leur covariance est nulle.
Auquel cas La variance de la somme est alors la somme des variances.

Définition 12.17 Corrélation linéaire


Si 𝑋 et 𝑌 sont des variables aléatoires réelles admettant un moment d’ordre 2 de lois
non certaines (i.e. variances non nulles), on définit le coefficient de corrélation linéaire
du couple (𝑋, 𝑌 ) par la formule

𝐶 (𝑋, 𝑌 )
𝜌 (𝑋, 𝑌 ) =
𝜎 (𝑋 )𝜎 (𝑌 )

Définition 12.18
Deux variables 𝑋, 𝑌 dont le coefficient de corrélation 𝜌 est nul sont dites décorrélées.
Ce qui est équivalent à 𝑉 (𝑋 + 𝑌 ) = 𝑉 (𝑋 ) + 𝑉 (𝑌 )

Proposition 12.31
Le coefficient de corrélation linéaire du couple (𝑋, 𝑌 ) est un élément de l’intervalle
[−1, 1].
Le cas 𝜌 = 1 équivaut à (𝑌 = 𝛼𝑋 + 𝛽 avec 𝛼 > 0) p.s
le cas 𝜌 = −1 équivaut à (𝑌 = 𝛼𝑋 + 𝛽 avec 𝛼 < 0) p.s

Preuve
Par l’inégalité de Cauchy Schwartz

|𝐶 (𝑋, 𝑌 )| = |𝐸 ((𝑋 − 𝐸 (𝑋 )(𝑌 − 𝐸 (𝑌 ))| 6 𝜎 (𝑋 )𝜎 (𝑌 )

Classe MP-MP* page 29 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

D’où
|𝜌 (𝑋, 𝑌 )| 6 1
√︁ √︁
𝜌 (𝑋, 𝑌 ) = 1 ⇐⇒ 𝐸 ((𝑋 − 𝐸 (𝑋 ))(𝑌 − 𝐸 (𝑌 ))) = 𝐸 (𝑋 − 𝐸 (𝑋 )) 𝐸 (𝑋 − 𝐸 (𝑋 ))
C’est un cas d’égalité dans l’inégalité de Cauchy-Schwartz. ce qui se traduira de manière équivalente
par le fait que 𝑋 = 𝐸 (𝑋 ) ou il existe 𝛼 > 0 tel que 𝑌 − 𝐸 (𝑌 ) = 𝛼 (𝑋 − 𝐸 (𝑋 )),
C’est à dire encore 𝑋 = 𝐸 (𝑋 ), ou 𝑌 = 𝛼𝑋 + 𝛽.
On fait de même lorsque 𝜌 = −1.

Remarque 12.12
le coefficient de corrélation linéaire qui est une mesure de la direction et de l’intensité
de l’association linéaire entre deux variables.

II.11 Présentation de la fonction caractéristique : transformée de Fourier,


de Laplace

Introduction :
Dans le cas de variables aléatoires à valeurs entières positives la fonction génératrice
caractérise la loi, et permet de calculer les moments, la fonction génératrice d’une somme
de variables aléatoires indépendantes est le produit des fonctions génératrices.
La transformation de Fourier (resp. de Laplace) étend ces propriétés au cas des variables
aléatoires réelles quelconques (resp. positives).

Définition 12.19
On appelle fonction caractéristique d’une variable aléatoire réelle 𝑋 continue la fonction
𝜑𝑋 de R dans C définie par :

𝑖𝑡𝑋
𝜑𝑋 (𝑡) = 𝐸 (𝑒 ) = 𝑒 𝑖𝑡𝑥 𝑓𝑋 (𝑡)𝑑𝑡
R

La fonction caractéristique de X ne dépend donc que de la loi de X. C’est la transformée


de Fourier de cette loi.

Classe MP-MP* page 30 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Définition 12.20
La transformée de Laplace (ou fonction génératrice des moments) d’une variable aléa-
toire réelle 𝑋 est la fonction 𝐿𝑋 définie par

𝐿𝑋 (𝑡) = 𝐸 (𝑒 −𝑡𝑋 ) = 𝑒 −𝑡𝑥 𝑓𝑋 (𝑡)𝑑𝑡
R

pour tout réel 𝑡 tel que 𝑒 −𝑡𝑋 est intégrable.


La transformée de Laplace de 𝑋 est définie sur un intervalle contenant 0 (éventuellement
réduit à 0). Si cet intervalle est un voisinage de 0, elle est DSE.
La transformée de Laplace d’une variable aléatoire réelle positive 𝑋 est définie sur
[0, +∞[.

III
Convergences

Théorème 12.32 Inégalité de Markov


Si 𝑋 est une variables aléatoire positive admettant une espérance, alors

𝐸 (𝑋 )
∀𝛼 > 0, 𝑃 (𝑋 > 𝛼) 6
𝛼
Preuve
∫ +∞ ∫ +∞ ∫𝛼
𝐸 (𝑋 ) = −∞ 𝑡 𝑓𝑋 (𝑡)𝑑𝑡 = 0 𝑡 𝑓𝑋 (𝑡)𝑑𝑡 > 𝛼 0 𝑓𝑋 (𝑡)𝑑𝑡 = 𝛼𝑃 (𝑋 > 𝛼)

Théorème 12.33 Inégalité Bienaymé-Tchebychev


Si 𝑋 est une variable aléatoire admettant un moment d’ordre 2, alors
𝑉 (𝑋 )
∀𝛽 > 0, 𝑃 (|𝑋 − 𝐸 (𝑋 )| > 𝛽) 6
𝛽2
Preuve
On applique l’inégalité de Markov à la variable aléatoire positive 𝑌 = (𝑋 − 𝐸 (𝑋 )) 2 , avec 𝛼 = 𝛽 2 .

Classe MP-MP* page 31 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Remarque 12.13
On peut interpreter cette inégalité par le fait que la variance permet de controler l’ecart
entre 𝑋 et 𝐸 (𝑋 ).

Remarque 12.14
Une autre variante de l’inégalité de Bienaymé-Tchebychev est

𝑉 (𝑋 )
𝑃 (|𝑋 − 𝐸 (𝑋 )| 6 𝜀) > 1 −
𝜀2
qui peut s’interpéter par le fait que 𝑋 approche 𝑚 = 𝐸 (𝑋 ) à 𝜀 près avec une probabailité
d’aux moins 1 − 𝑉𝜀𝑋2

Proposition 12.34
Si (𝑓𝑘 ) est une suite de fonctions R → R convergeant simplement vers 𝑔, et si 𝑋 est
une variable aléatoire de sorte que 𝑓𝑘 (𝑋 ) et 𝑔(𝑋 ) restent des variables aléatoires, alors
la suite de fonctions (𝑓𝑘 (𝑋 )) converge en probabilité vers 𝑔(𝑋 )
Preuve
Posons 𝐴𝑘 = {𝜔 ∈ Ω, |𝑓𝑘 (𝑋 (𝜔)) − 𝑔(𝑋 (𝜔))| > 𝜀}.
Posons ensuite 𝐵𝑘 = 𝐴𝑘 , la suite (𝐵𝑘 ) est décroissante, par convergence simple, on a 𝐵𝑘 = ∅.
S T
𝑛>𝑘 𝑘
par théorème de limite monotone, on aura 0 = lim 𝑃 (𝐵𝑘 ).
𝑘→+∞
Comme 0 6 𝑃 (𝐴𝑘 ) 6 𝑃 (𝐵𝑘 ), donc lim 𝑃 (𝐴𝑘 ) = 0, ce qui traduit exactement la convergence en
𝑘→+∞
probabilité.

Définition 12.21 Convergence en loi


On dit que la suite de variables aléatoires (𝑋𝑛 ) converge en loi vers la variable aléatoire
𝑌 si ∀𝑡 ∈ R\𝐷𝑌 , lim 𝐹𝑋𝑛 (𝑡) = 𝐹𝑌 (𝑡) où 𝐷𝑌 est l’ensemble des points de discontinuités
𝑛→+∞
de 𝐹𝑌 .

Théorème 12.35
La convergence en probabilité entraine la convergence en loi, la réciproque est fausse

Classe MP-MP* page 32 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Théorème 12.36 Théorème de la limite centrée


Si (𝑋𝑛 ) est une suite de variables aléatoires indépendantes de même loi admettant un
moment d’ordre 2, alors la suite
!!
1 𝑛
∑︁
√ 𝑋𝑘 − 𝑛𝑚
𝜎 𝑛 𝑘=1

converge en loi vers une loi normale centrée réduite N (0, 1) où 𝑚 est l’espérance
commune et 𝜎 l’écart-type commun.

Remarque 12.15
𝑛
© √𝑛
   P
1
𝑛 © 𝑘=1𝑋𝑘
𝑋𝑘 − 𝑛𝑚 ­ 𝑛 − 𝑚 ®® qui est la centré réduite de la variable aléatoire
P
=

ªª
𝜎 𝑛
­𝜎
𝑘=1
𝑛
« « ¬¬
P
𝑋𝑘
𝑘=1
𝑛

IV
Convergence de variables aléatoires

IV.1 Convergence simple


Proposition 12.37
Si (𝑋𝑛 )𝑛 est une suite de variables aléatoires qui converge simplement vers une fonction
𝑋 : Ω → R, alors 𝑋 est une variable aléatoire.
Preuve
Soit 𝑤 ∈ 𝑋 −1 (] − ∞, 𝑎]).
1
lim 𝑋𝑛 (𝑤) = 𝑋 (𝑤) =⇒ ∀𝑚 ∈ N∗, ∃𝑁 ∈ N, ∀𝑛 > 𝑁 , 𝑋𝑛 (𝑤) 6 𝑋 (𝑤) +
𝑛→+∞ 𝑚
1
=⇒ ∀𝑚 ∈ N∗, ∃𝑁 ∈ N, ∀𝑛 > 𝑁 , 𝑋𝑛 (𝑤) 6 𝑎 +
𝑚
\ [ \ −1 1
=⇒ 𝑤∈ 𝑋𝑛 (] − ∞, 𝑎 + ])
𝑚 ∈N∗ 𝑁 ∈N 𝑛>𝑁 𝑚

Classe MP-MP* page 33 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Réciproquement si 𝑤 ∈ 𝑋𝑛−1 (] − ∞, 𝑎 + 𝑚1 ]), alors :


T S T
𝑚 ∈N∗ 𝑁 ∈N 𝑛>𝑁
∀𝑚 ∈ N∗, ∃𝑁 ∈ N, ∀𝑛 > 𝑁 , 𝑋𝑛 (𝑤) 6 𝑎 + 𝑚1 .
En faisant tendre 𝑛 vers +∞, on aura 𝑋 (𝑤) 6 𝑎 + 𝑚1 , et ceci pour tout 𝑚 ∈ N∗ , en faisant tendre 𝑚 vers
+∞ on obtient 𝑋 (𝑤) 6 𝑎. par stabilité par réunion et intersetion dénombrable, on aura ”𝑋 6 𝑎” ∈ A.

IV.2 Convergence en probabilité


Définition 12.22
On dit qu’une suite de variables aléatoires converge en probabilité vers la variable
aléatoire 𝑌 si
∀𝜀 > 0, lim 𝑃 (|𝑌 − 𝑋𝑛 | > 𝜀) = 0
𝑛→+∞

Proposition 12.38
Si (𝑓𝑘 ) est une suite de fonctions R → R convergeant simplement vers 𝑔, et si 𝑋 est
une variable aléatoire de sorte que 𝑓𝑘 (𝑋 ) et 𝑔(𝑋 ) restent des variables aléatoires, alors
la suite de fonctions (𝑓𝑘 (𝑋 )) converge en probabilité vers 𝑔(𝑋 )
Preuve
Posons 𝐴𝑘 = {𝜔 ∈ Ω, |𝑓𝑘 (𝑋 (𝜔)) − 𝑔(𝑋 (𝜔))| > 𝜀}.
Posons ensuite 𝐵𝑛 = 𝐴𝑘 , la suite (𝐵𝑘 ) est décroissante, par convergence simple, on a 𝐵𝑘 = ∅.
S T
𝑛>𝑘 𝑘
par théorème de limite monotone, on aura 0 = lim 𝑃 (𝐵𝑘 ).
𝑘→+∞
Comme 0 6 𝑃 (𝐴𝑘 ) 6 𝑃 (𝐵𝑘 ), donc lim 𝑃 (𝐴𝑘 ) = 0, ce qui traduit exactement la convergence en
𝑘→+∞
probabilité.

Exercice 12.12

On dit que la suite de variables aléatoires (𝑋𝑛 ) converge presque surement vers la
variable aléatoire 𝑋 s’il existe une événement Ω 0 presque certain tel que :

∀𝜔 ∈ Ω 0, lim 𝑋𝑛 (𝜔) = 𝑋 (𝜔)


𝑛→+∞

1 Montrer que les psse


(𝑋𝑛 ) Converge p.s vers 𝑋
(𝑋 = lim 𝑋𝑛 ) ∈ A, et 𝑃 ( lim 𝑋𝑛 = 𝑋 ) = 1
𝑛→+∞ 𝑛→+∞

Classe MP-MP* page 34 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

∀𝜀 > 0, 𝑃 (lim𝑛 {|𝑋𝑛 − 𝑋 | < 𝜀}) = 1


∀𝜀 > 0, 𝑃 (lim𝑛 {|𝑋𝑛 − 𝑋 | > 𝜀}) = 0

lim𝑛 {|𝑋𝑛 − 𝑋 | < 𝜖} :=
[ \
{|𝑋𝑛 − 𝑋 | < 𝜖}
𝑁 ∈N 𝑛>𝑁

lim𝑛 {|𝑋𝑛 − 𝑋 | > 𝜖} :=


\ [
{|𝑋𝑛 − 𝑋 | > 𝜖}
𝑁 ∈N 𝑛>𝑁

2 Montrer que la convergence presque sûrement entraine la convergence en probabi-


lité.
3 Soit 𝑟 > 0. On considère (𝑋𝑛 )𝑛>1 une suite de variables aléatoires indépendantes
telle que
1 1
𝑃 (𝑋𝑛 = 𝑛 1/𝑟 ) = et P(𝑋𝑛 = 0) = 1 −
𝑛 𝑛
Montrer que (𝑋𝑛 ) converge en probabilité vers la v.a.r 𝑋 = 0 et non pas presque sûrement.

Théorème 12.39 Loi faible des grands nombres


Si (𝑋𝑛 est une suite de variables aléatoires
 indépendantes
 et de même loi, admettant des
𝑛
moments d’ordre 2. Alors la suite 𝑛1 𝑋𝑘 converge en probabilité vers la variable
P
𝑘=1
constante 𝑚 = 𝐸 (𝑋 1 ) l’espérance commune.
Preuve
𝑛
Posons 𝑆𝑛 = 𝑋𝑘 , par l’inégalité de BT on a
P
𝑘=1

Var(𝑋 )
∀𝑡 > 0, 𝑃 (|𝑆𝑛 − 𝐸 (𝑆𝑛 )| > 𝑡) 6
𝑡2
𝐸 (𝑆𝑛 ) = 𝑛𝐸 (𝑋 1 ), Var(𝑆𝑛 ) = 𝑛Var(𝑋 1 ).
Pour 𝑡 = 𝑛𝜀, on obtient
𝑆𝑛 Var(𝑋 1 )
𝑃 (| − 𝐸 (𝑋 1 )| > 𝜀) 6 −→ 0
𝑛 𝑛𝜀 2

Classe MP-MP* page 35 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

IV.3 Convergence en loi


Définition 12.23 Convergence en loi
On dit que la suite de variables aléatoires (𝑋𝑛 ) converge en loi vers la variable aléatoire
𝑌 si
∀𝑡 ∈ R\𝐷𝑌 , lim 𝐹𝑋𝑛 (𝑡) = 𝐹𝑌 (𝑡)
𝑛→+∞

où 𝐷𝑌 est l’ensemble des points de discontinuités de 𝐹𝑌 .

Proposition 12.40
(𝑋𝑛 ) une suite de variables aléatoires, on suppose que 𝑋𝑛 et 𝑌 sont à valeurs dans N,
alors
(𝑋𝑛 ) converge en loi vers 𝑌 si et seulement si

∀𝑘 ∈ N : lim 𝑃 (𝑋𝑛 = 𝑘) = 𝑃 (𝑌 = 𝑘)
𝑛→+∞

Preuve
L’ensemble 𝐷 des points de discontinuité de 𝑌 est une partie de N.
=⇒)Soit 𝑘 ∈ N, pour 𝜀 ∈]0, 1[, 𝑘 + 𝜀 est un élément R\𝐷𝑌 .

𝑃 (𝑋𝑛 = 𝑘) = 𝐹𝑋𝑛 (𝑘 + 𝜀) − 𝐹𝑋𝑛 (𝑘 − 1 + 𝜀) −→ 𝐹𝑌 (𝑘 + 𝜀) − 𝐹𝑌 (𝑘 − 1 + 𝜀) = 𝑃 (𝑌 = 𝑘)

⇐=) Pour 𝑡 < 0, on a bien 𝐹𝑋𝑛 (𝑡) = 0 −→ 0 = 𝑃𝑌 (𝑡).


[𝑡
P] [𝑡
P]
Pour 𝑡 > 0, 𝐹𝑋𝑛 (𝑡) = 𝑃 (𝑋𝑛 = 𝑘) −→ 𝑃 (𝑌 = 𝑘) = 𝐹𝑌 (𝑡)
𝑘=0 𝑘=0

Exemple 12.1

Soit 𝑐 > 0 un nombre fixé. Nous considérons la v.a. 𝑋 = 0 et la suite de v.a. (𝑋𝑛 , 𝑛 ∈ N)𝑛
ne prenant que deux valeurs, définies par :
1 1
∀𝑛 ∈ N, 𝑃 (𝑋𝑛 = 𝑛𝑐 ) = et 𝑃 (𝑋𝑛 = 0) = 1 −
𝑛 𝑛
Il est facile alors de constater que, pour tout 𝜀 > 0 fixé et pour tout 𝑛 > 1, nous avons :
1
𝑃 (|𝑋𝑛 − 𝑋 | > 𝜀) = 𝑃 (|𝑋𝑛 | > 𝜀) = 𝑃 (𝑋𝑛 = 𝑛𝑐 ) = −→ 0.
𝑛
Ainsi nous en déduisons (𝑥𝑛 ) converge en probabilité vers 𝑋 = 0.

Classe MP-MP* page 36 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Exemple 12.2

(𝑝𝑛 ) une suite de réels de [0, 1] tel que lim 𝑛𝑝𝑛 = 𝜆.


𝑛→+∞
Si 𝑋𝑛 est une variable aléatoire qui suit la loi binomiale de paramètre (𝑛, 𝑝𝑛 ) alors la suite
(𝑋𝑛 )𝑛>1 converge en loi vers la variable aléatoire suivant la loi de Poisson de paramètre
𝜆.
En effet :
𝑛(𝑛 − 1)...(𝑛 − 1 + 𝑘) 𝑘
 
𝑛 𝑘
𝑃 (𝑋𝑛 = 𝑘) = 𝑝𝑛 (1 − 𝑝𝑛 )𝑛−𝑘 = 𝑝𝑛 (1 − 𝑝𝑛 ) −𝑘 (1 − 𝑝𝑛 )𝑛
𝑘 𝑘!

𝑛(𝑛 − 1)...(𝑛 − 1 + 𝑘) v 𝑛𝑘
D’autre part :
𝜆 1
𝑝𝑛 = + 𝑜( )
𝑛 𝑛
Donc :
𝜆 1
lim (1 − 𝑝𝑛 ) −𝑘 = 0 et (1 − 𝑝𝑛 )𝑛 = exp(𝑛 ln(1 − + 𝑜 ( ))) −→ exp(−𝜆)
𝑛→+∞ 𝑛 𝑛

Donc 𝑃 (𝑋𝑛 = 𝑘) −→ 𝑒 −𝜆 𝜆𝑘! qui est une loi de Poisson.


𝑘

Théorème 12.41
La convergence en probabilité entraine la convergence en loi.

Remarque 12.16
La réciproque est fausse comme le montre l’exemple suivant : 𝑋 une variable aléatoire
de valeurs prises 1 et −1, avec 𝑃 (𝑋 = 1) = 𝑃 (𝑋 = −1) = 21 .
Soit pour tout 𝑛 ∈ N, la variable aléatoire définie par
(
𝑋𝑛 = 𝑋 si 𝑛 pair
𝑋𝑛 = −𝑋 si 𝑛 impair

Du fait que 𝑋 et −𝑋 ont la même loi, alors 𝑋𝑛 converge en loi vers 𝑋 .

𝑃 (𝑋𝑛 = 𝑘) = 𝑃 (𝑋 = 𝑘) −→ 𝑃 (𝑋 = 𝑘)

Classe MP-MP* page 37 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

remarque 12.16 (suite)

Mais
𝑃 (|𝑋 2𝑛+1 − 𝑋 | > 𝜀) = 𝑃 (2|𝑋 | > 1) = 𝑃 (|𝑋 | = 1) = 1
La suite (𝑋𝑛 ) ne converge pas en probabilité vers 𝑋 .

Exercice 12.13

Montrer la réciproque du résultat de la proposition précédente dans le cas où 𝑋 = 𝑐 est


une variable aléatoire constante (sûre)
solution 12.13, page 45

Classe MP-MP* page 38 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

V
Solutions des exercices

Solution de l’exercice 12.2


𝐹 continue strictemenrt croissante, donc c’est une bijection de R dans ]0, 1[.
𝑃 (𝐹 −1 (𝑈 ) 6 𝑥) = 𝑃 (𝑈 6 𝐹 (𝑥)), comme 𝐹 (𝑥) ∈ [0, 1], donc
𝑃 (𝐹 −1 (𝑈 ) 6 𝑥) = 𝐹 (𝑥).
𝑋 et 𝐹 −1 (𝑈 ) ont donc la même loi.

Solution de l’exercice 12.3

𝐹𝑈𝑘 (𝑥) = 𝑃 (𝑢𝑘 6 𝑥)


= 1 − 𝑃 (𝑈𝑘 > 𝑥)
𝑘
= 1−
Y
𝑃 (𝑋𝑖 > 𝑥)
𝑖=0
𝑘
= 1−
Y
(1 − 𝑃 (𝑋𝑖 6 𝑥))
𝑖=0


 0𝑥 60


= 1 − (1 − 𝑥)𝑘+1, 0 6 𝑥 6 1

 1, 𝑥 > 1

𝐹𝑋 est continue sur R de classe 𝐶 1 sur R\{0, 1}, donc 𝑋 est continue de densité 𝑓𝑋 définie
par


 0, 𝑥 < 0


𝑓𝑋 = (𝑘 + 1)(1 − 𝑥)𝑘 , 0 < 𝑥 < 1

 0, 𝑥 > 1

Classe MP-MP* page 39 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

𝑛
∑︁
𝑃 (𝑈 6 𝑥) = 𝑃 (𝑁 = 𝑘, 𝑈 6 𝑥)
𝑘=0
𝑛
∑︁
= 𝑃 (𝑁 = 𝑘, 𝑈𝑘 6 𝑥)
𝑘=0
𝑛
∑︁
= 𝑃 (𝑁 = 𝑘)𝐹𝑈𝑘 (𝑥)
𝑘=0


 0, 𝑥 6 0
 𝑛
P
 𝑛 1 𝑛 𝑘+1 ), 0 6 𝑥 6 1
= 𝑘 ( 2 ) (1 − (1 − 𝑥)

 𝑘=0
 1, 𝑥 > 1

𝐹𝑈 est continue de classe 𝐶 1 sur R\{0, 1}, donc 𝑈 est une var à densité de densité 𝑓𝑋
définie par :


 0, 𝑥 < 0
𝑓𝑋 = ( 12 )𝑛 (2 − 𝑥)𝑛 (𝑛 + 2 − (𝑛 + 1)𝑥), 0 < 𝑥 < 1



 0, 𝑥 > 1

Solution de l’exercice 12.4


Supposons que 𝑋 suit E(𝜆).
𝑃 (𝑋 > 𝑡, 𝑋 > 𝑡 + 𝑠)
𝑃 (𝑋 > 𝑡 + 𝑠/𝑋 > 𝑡) =
𝑃 (𝑋 > 𝑡)
𝑃 (𝑋 > 𝑡 + 𝑠)
=
𝑃 (𝑋 > 𝑡)
𝑒 −(𝑡 +𝑠)
=
𝑒 −𝑡
= 𝑒 −𝑠
= 𝑃 (𝑋 > 𝑠)

Donc 𝑋 est sans mémoire.


Supposons maintenant que 𝑋 est sans mémoire. Posons 𝐺 (𝑡) = 𝑃 (𝑋 > 𝑡). on a :

𝑃 (𝑋 > 𝑡 + 𝑠/𝑋 > 𝑡) = 𝑃 (𝑋 > 𝑠) ⇐⇒ ∀𝑠, 𝑡 > 0, 𝐺 (𝑠 + 𝑡) = 𝐺 (𝑠)𝐺 (𝑡)

Classe MP-MP* page 40 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Posons 𝑎 = 𝐺 (1).
• Pour 𝑛 ∈ N, 𝐺 (𝑛) = 𝐺 (1 + ... + 1) = 𝐺 (1)𝑛 = 𝑎𝑛 .
• Pour 𝑛 ∈ N∗, 𝐺 (1) = 𝐺 (𝑛 × 𝑛1 ) = (𝐺 (1/𝑛))𝑛 donc 𝐺 (1/𝑛) = 𝑎 1/𝑛
Pour 𝑟 = ∈ Q+, 𝐺 (𝑟 ) = 𝐺 (𝑝 × 𝑞1 ) = 𝐺 (1/𝑞) 𝑝 = 𝑎𝑟
𝑝
• 𝑞
• Par continuité de 𝐺 sur R, alors ∀𝑥 ∈ R+, 𝐺 (𝑥) = 𝑎𝑥 , 𝑎 est un réel positif non nul
car lim 𝐺 (𝑥) = 1, de même 𝑎 < 1, si on pose 𝜆 = − ln 𝑎, alors ∀𝑥 > 0, 𝐺 (𝑋 ) = 𝑒 −𝜆𝑥 , 𝑋
𝑥→−∞
suit alors une loi exponentielle.

Solution de l’exercice 12.5

𝑃 (𝑋 6 𝑥) = 𝑃 (− ln 𝑈 6 𝑥)
= 𝑃 (𝑈 > 𝑒 −𝑥 )
= 1 − 𝑃 (𝑈 < 𝑒 −𝑥 )
(
0, 𝑥 6 0
=
1 − 𝑒 −𝑥 , 𝑥 > 0

On reconnait la loi E(1).

Solution de l’exercice 12.6

1 𝑌 (Ω) ∈ N∗ .
𝑘 ∈ N∗, 𝑃 (𝑌 = 𝑘) = 𝑃 (𝑘 − 1 < 𝑋 6 𝑘) = 𝑘−1 𝑒 −𝑡 𝑑𝑡 = 𝑒 −(𝑘−1) (1 − 𝑒 −1 ). Donc 𝑌 suit la loi
∫𝑘

géomètrique de paramètre 1 − 𝑒 −1 .
2 𝑃 (𝑍 6 𝑥) = 𝑃 (𝑌 − 𝑋 6 𝑥), comme 0 6 𝑌 − 𝑋 < 1, alors 𝑃 (𝑌 − 𝑋 6 𝑥) = 0 si 𝑥 < 0
et 𝑃 (𝑌 − 𝑋 6 𝑥) = 1 si 𝑥 > 1.
On suppose que 𝑥 ∈ [0, 1[.
+∞
∑︁
𝑃 (𝑌 − 𝑋 6 𝑥) = 𝑃 (, 𝑌 = 𝑘, 𝑋 > 𝑘 − 𝑥)
𝑘=1
+∞
∑︁
= 𝑃 (𝑌 = 𝑘, 𝑋 > 𝑘 − 𝑥)
𝑘=1

Classe MP-MP* page 41 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

+∞
∑︁
= 𝑃 (𝑘 − 𝑥 6 𝑋 6 𝑘)
𝑘=1
+∞ ∫ 𝑘
𝑒 −𝑡 𝑑𝑡
∑︁
=
𝑘=1 𝑘−𝑥
+∞
(𝑒 −(𝑘−𝑥) − 𝑒 −𝑘 )
∑︁
=
𝑘=1
+∞
= (𝑒 − 1) 𝑒 −𝑘
𝑥
∑︁
𝑘=1
𝑒𝑥 −1
=
𝑒 −1
3 Se déduit du résultat précédent, en dérivant.

Solution de l’exercice 12.7


∫ +∞ 10
1 𝑃 (𝑇 > 20) = 20 𝑡2
𝑑𝑡 = 12 .
(
0, si 𝑥 6 10
2 𝐹𝑇 (𝑥) = 𝑃 (𝑇 6 𝑥) =
1 − 10
𝑥 , si 𝑥 > 10
3 Chaque composant suit la même loi 𝑇𝑖 , 𝑖 = 1...6. ∫∞
En considérant l’évenement ”𝑇 > 15” comme un succés de probabilité 𝑝 = 15 10 𝑡2
𝑑𝑡 = 23 ,
le nombre de composants parmis les 6 est une variable aléatoire distribuée selon une loi
binomiale B(6, 23 ).
La probabilité cherchée est
6  
6 𝑘
𝑃 (𝑋 > 3) = 𝑝 (1 − 𝑝) 6−𝑘 w 0.9
∑︁
𝑘=3 𝑘

Solution de l’exercice 12.8


∫𝑥 ∫𝑥
1 𝜑 (𝑥) = − 0 𝑡 (1 − 𝐹 (𝑡)) 0𝑑𝑡 = [−𝑡 (1 − 𝐹 (𝑡))] 𝑥0 + 0
(1 − 𝐹 (𝑡))𝑑𝑡 = −𝑥𝑃 (𝑋 >
∫𝑥
𝑥) + 0 (1 − 𝐹 (𝑡))𝑑𝑡.
2 Par positivité
∫ 𝑥de 𝑡 → 𝑡 𝑓 (𝑡) on a la croissance de 𝜑, en plus par la question
∫ +∞
précédente 𝜑 (𝑥) 6 0 (1 − 𝐹 (𝑡))𝑑𝑡 6 0 (1 − 𝐹 (𝑡))𝑑𝑡, donc 𝜑 est majorée, elle admet

Classe MP-MP* page 42 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

alors une limite finie en +∞, d’où l’existence de 𝐸 (𝑋 ).


∫ +∞ ∫ +∞
Nous avons 0 6 𝑥𝑃 (𝑋 > 𝑥) = 𝑥 𝑥 𝑓 (𝑡)𝑑𝑡 6 𝑥 𝑡 𝑓 (𝑡)𝑑𝑡.
Par la question précédente, on déduit que lim 𝑥𝑃 (𝑋 > 𝑥) = 0, et par la question 1),
𝑥→+∞
en faisant tendre 𝑥 vers +∞, on obtient
∫ +∞ ∫ +∞
𝐸 (𝑋 ) = (1 − 𝐹 (𝑡))𝑑𝑡 = 𝑃 (𝑋 > 𝑡)𝑑𝑡
0 0

Solution de l’exercice 12.9

1 𝑌 (Ω) = N.
𝑛 ∈ N, 𝑃 (𝑌 = 𝑛) = 𝑃 (𝑛 6 𝑋 < 𝑛 + 1) = 𝜆 𝑛 𝑒 −𝜆𝑡 𝑑𝑡 = 𝑒 −𝜆𝑛 (1 − 𝑒 −𝜆 ).
∫ 𝑛+1

𝑇 = 𝑌 + 1 suit la loi géométrique de paramètre 𝑝 = 1 − 𝑒 −𝜆 , donc 𝐸 (𝑌 ) = 𝐸 (𝑇 ) − 1 =


1
1−𝑒 −𝜆
− 1 = 𝑒 𝜆1−1
(
0, 𝑥 < 0
2 𝑍 (Ω) ⊂ [0, 1[, donc 𝑃 (𝑍 6 𝑥) = .
1, 𝑥 > 1
On suppose que 𝑥 ∈ [0, 1[.
+∞
∑︁
𝑃 (𝑍 6 𝑥) = 𝑃 (𝑋 − 𝑘 6 𝑥, 𝑌 = 𝑘)
𝑘=0
+∞
∑︁
= 𝑃 (𝑘 6 𝑋 6 𝑥 + 𝑘)
𝑘=0
+∞ ∫ 𝑘+𝑥
𝜆𝑒 −𝜆𝑡 𝑑𝑡
∑︁
=
𝑘=0 𝑘
+∞
𝑒 −𝜆𝑘 (1 − 𝑒 −𝜆𝑥 )
∑︁
=
𝑘=0
1 − 𝑒 −𝜆𝑥
=
1 − 𝑒 −𝜆
𝐹𝑍 est continue sur R, 𝐶 1 en dehors de 0 et 1, donc 𝑍 est une variable aléatoire à densité
𝜆𝑒 −𝜆𝑥
de densité 𝑓𝑍 définie par 𝑓𝑍 (𝑥) = 1−𝑒 −𝜆 1 [0,1] (𝑥).
1
𝐸 (𝑍 ) = 1−𝑒1 −𝜆 0 𝜆𝑥𝑒 −𝜆𝑥 𝑑𝑥 = − 1−𝑒 1
∫ 𝑒 −𝜆
−𝜆 + 𝜆

Classe MP-MP* page 43 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Solution de l’exercice 12.10

1 • Pour 𝑥 ∈] − ∞, 0], 𝑃 (𝑌 6 𝑥) = 0.

• Pour 𝑥 > 2 c’est à dire 𝑥 > 4, alors 𝑃 (𝑌 6 𝑥) = 1.
√ √ √ √
• Pour 𝑥 ∈ [1, 4], 𝑃 (𝑌 6 𝑥) = 𝑃 (𝑋 6 𝑥) − 𝑃 (𝑋 < − 𝑥) = 𝑃 (𝑋 6 𝑥) = 3 .
𝑥+1
√ √ √ √
•√ Si 𝑥 ∈ [0,

1[, alors

𝑥, − 𝑥 ∈ [−1, 2] et donc 𝑃 (𝑌 6 𝑥) = 𝑃 (𝑋 6 𝑥) − 𝑃 (𝑋 < − 𝑥) =
− 𝑥+1 2 𝑥
= 3 .
𝑥+1
3 − 3
𝑌 est de densité


 0, 𝑥 < 0
 3√1𝑥 , 0 < 𝑥 < 1




𝑓𝑌 (𝑥) = 1
√ , 1 <𝑥 < 4
6



 𝑥
 0, 𝑥 > 4


∫2 ∫2
• Par le théorème de transfert 𝐸 (𝑌 ) = −1 𝑡 2 𝑓𝑋 (𝑡)𝑑𝑡 = 13 −1 𝑡 2𝑑𝑡 = 1

Solution de l’exercice 12.11

1 Pour 𝑥 > 0, 𝑃 (𝑋 6 𝑥) = 𝑃 (𝑒 𝑦 6 𝑥) = 𝑃 (𝑌 6 ln(𝑥)) = 𝜑 (ln(𝑥)).


1 2
2 𝑓𝑋 (𝑥) = 𝑥1 𝜑 0 (ln 𝑥) = √1 𝑒 − 2 ln (𝑥)
𝑥 2𝜋
3

𝐸 (𝑋 ) = 𝐸 (𝑒 𝑌 )

= 𝑒 𝑦 𝑓𝑌 (𝑦)𝑑𝑦
∫R
1 1 2
= 𝑒 𝑦 √ 𝑒 − 2 𝑦 𝑑𝑦
R 2𝜋
1

1 2 1
= √ 𝑒 − 2 (𝑦−1) 𝑒 2 𝑑𝑦
2𝜋 R
√ 1

1 2
= 𝑒√ 𝑒 − 2 𝑦 𝑑𝑦
2𝜋 R

= 𝑒

Classe MP-MP* page 44 / 45 cpge Réda Slaoui- Al Qalam


Cours Table des matières

Solution de l’exercice 12.13


Supposons la convergence en loi de (𝑋𝑛 ) vers 𝑋 . D’abord il est clair que la fonction de
répartion de 𝑋 est définie par 𝐹𝑋 (𝑡) = 𝜒R+ (𝑡 − 𝑐).
Soit 𝜀 > 0.

𝑃 (|𝑋𝑛 − 𝑋 | > 𝜀) = 𝑃 (𝑋𝑛 < 𝑐 − 𝜀) + 𝑃 (𝑋𝑛 > 𝑐 + 𝜀)


= 𝑃 (𝑋𝑛 < 𝑐 − 𝜀) + 1 − 𝑃 (𝑋𝑛 6 𝑐 + 𝜀)
6 𝑃 (𝑋𝑛 6 𝑐 − 𝜀) + 1 − 𝑃 (𝑋𝑛 6 𝑐 + 𝜀)
= 𝐹𝑋𝑛 (𝑐 − 𝜀) + 1 − 𝐹𝑋𝑛 (𝑐 + 𝜀) −→ 𝐹𝑋 (𝑐 − 𝜀) + 1 − 𝐹𝑋 (𝑐 + 𝜀)
𝑛→+∞

Mais 𝐹𝑋 (𝑐 − 𝜀) + 1 − 𝐹𝑋 (𝑐 + 𝜀) = 𝜒 R+ (−𝜀) + 1 − 𝜒 R+ (𝜀) = 0.


D’où la convergence en probabilité.

Classe MP-MP* page 45 / 45 cpge Réda Slaoui- Al Qalam

Vous aimerez peut-être aussi