Complement
Complement
Cours
Variables aléatoires à densité
Said Hajmi
Classe MP-MP*
Table des matières
page 2 / 45
Cours Table des matières
I
Généralisation de la notion
de variables aléatoire réelle
Définition 12.1
On appelle variable aléatoire sur l’espace probabilisé (Ω, A, 𝑃) toute application :
𝑋 :Ω→R
Proposition 12.1
Une application 𝑋 : Ω → R est une variable aléatoire si et seulement si
∀𝑥 ∈ R : 𝑋 −1 (] − ∞, 𝑥]) ∈ A
Remarque 12.2
Si 𝐴 est une partie de la tribu borélienne BR qui est obtenu par conséquent par passage
au complémentaire, par réunion, par intersection au plus dénombrable d’intervalle de
la forme ] − ∞, 𝑥], et 𝑋 une variable aléatoire sur (Ω, T, 𝑃), alors ”𝑋 ∈ 𝐴” est bien un
événement de A.
Proposition 12.2
et
(𝑋 2 6 𝑎) = ∅, si 𝑎 < 0
(
√ √
(𝑋 2 6 𝑎) = (𝑋 6 𝑎) ∩ (𝑋 > − 𝑎), si 𝑎 > 0
Proposition 12.3
L’ensemble ( V, Ω, A) des variables aléatoires sur (Ω, A) est une R algèbre.
Preuve
Les deux applications 𝜔 → 0 et 𝜔 → 1 sont bien des variables aléatoires.
𝑋 1, 𝑋 2 deux variables aléatoires définies sur l’espace probabilisé (Ω, A, 𝑃). 𝜆 ∈ R.
1 Soit 𝑥 ∈ R
Soit 𝜔 ∈ (𝑋 1 + 𝑋 2 ) −1 (] − ∞, 𝑥 [), donc 𝑋 1 (𝜔) < 𝑥 − 𝑋 2 (𝜔). Soit 𝑟 𝜔 un rationnel entre les deux.
On a donc 𝑋 1 (𝜔) < 𝑟 𝜔 et 𝑋 2 (𝜔) < 𝑥 − 𝑟 𝜔 . Ce qui fait que
[ −1
𝜔∈ 𝑋 1 (] − ∞, 𝑟 [) ∩ 𝑋 2−1 (] − ∞, 𝑥 − 𝑟 [)
𝑟 ∈Q
Corollaire 12.4
Si (𝑋 1, .., 𝑋𝑘 ) est une famille finie de variables aléatoires réelles définie sur le même
espace probabilisé (Ω, A, 𝑃), alors
𝑘 𝑘
min(𝑋 1, ..., 𝑋𝑘 ), max(𝑋 1, .., 𝑋𝑘 ),
∑︁ Y
𝑋𝑖 , 𝑋𝑖
𝑖=1 𝑖=1
Remarque 12.3
𝑋 une variable aléatoire sur un espace probabilisé (Ω, A, 𝑃).
Cette définition de loi de probabilité peut s’étendre à toute la tribu borélienne BR en
posant pour tout 𝐴 ∈ BR :
𝑃𝑋 (𝐴) = 𝑃 (𝑋 ∈ 𝐴)
Elle constituera une probabilité sur (R, BR ).
Interprétation de cette formule : on peut tirer au sort un élément 𝜔 ∈ Ω selon la règle
donnée par 𝑃, puis prendre son image par 𝑋 . Il revient au même de tirer directement au
sort un 𝑥 ∈ R selon la règle de tirage au sort donnée par 𝑃𝑋 .
𝐹𝑋 : R −→ R
𝑡 ↦−→ 𝑃 (𝑋 6 𝑡)
Exercice 12.1
Propriétés 12.5
1 𝑃 (𝑋 > 𝑎) = 1 − 𝐹𝑋 (𝑎).
2 𝑃 (𝑋 > 𝑎) = 1− lim− 𝐹𝑋 (𝑥).
𝑥→𝑎
Remarque 12.4
La fonction de répartition caractérise complétement la loi de probabilité.
Corollaire 12.7
𝐹𝑋 est continue en 𝑎 si et seulement si 𝑃 (𝑋 = 𝑎) = 0
On appelle vecteur aléatoire sur l’espace probabilisé (Ω, A, P) à valeurs dans R𝑑 , tout
système 𝑋 = (𝑋 1, . . . , 𝑋𝑑 ) de variables aléatoires définies sur (Ω, A, P)
Définition 12.5
𝑃𝑋 : 𝐼 (R)𝑑 −→ R
𝑑
(𝐽1, ..., 𝐽𝑑 ) ↦−→ 𝑃 ( (𝑋𝑖 ∈ 𝐽𝑖 )) = 𝑃 (𝑋 1 ∈ 𝐽1, ..., 𝑋𝑑 ∈ 𝐽𝑑 )
T
𝑖=1
Définition 12.6
On appelle couple de variables aléatoires réelles, tout système 𝑍 = (𝑋, 𝑌 ) de deux
variables aléatoires réelles 𝑋 et 𝑌 . et on appelle loi conjointe de deux variables aléatoires
X et Y la loi du couple 𝑍 = (𝑋, 𝑌 ).
Définition 12.7
Les lois des deux variables aléatoires 𝑋 et 𝑌 sont appelées les lois marginales de la
variable 𝑍 = (𝑋, 𝑌 ).
𝐹 (𝑋 ,𝑌 ) (𝑥, 𝑦) = 𝑃 (𝑋 6 𝑥, 𝑌 6 𝑦).
Remarque 12.5
La fonction de répartition se généralise à un vecteur aléatoire 𝑋 = (𝑋 1, ..., 𝑋𝑑 ) par :
𝑃𝑋 (𝑥 1, ..., 𝑥𝑑 ) = 𝑃 (𝑋 1 6 𝑥 1, ..., 𝑋𝑑 6 𝑥𝑑 )
Remarque 12.6
Compte tenu des résultats vus au chapitre précédent cette indépedance dite parfois
mutuelle est à distinguer de l’indépendance deux à deux de ces variables.
Remarque 12.7
La famille (𝑋𝑛 )𝑛 ∈𝐽 est indépendante si et seulement si pour toute partie finie 𝐾 =
Proposition 12.8
𝑛 > 2, les variables 𝑋 1, ..., 𝑋𝑛 de l’espace probabilisé (Ω, A, 𝑃) sont indépendantes si et
seulement si Pour toute famille 𝐼 1, ..., 𝐼𝑛 d’intervalles de R.
𝑛
Y
𝑃 (𝑋 1 ∈ 𝐼 1, ..., 𝑋𝑛 ∈ 𝐼𝑛 ) = 𝑃 (𝑋𝑖 ∈ 𝐼𝑖 )
𝑖=1
Preuve
Le sens direct est évident :
Pour le sens indirect il suffit de compléter le système d’événement
(𝑋𝑖 1 ∈ 𝐼𝑖 1 ), ..., (𝑋𝑖𝑘 , 𝐼𝑖𝑘 ) par les événements sûrs
Alors la famille
𝑓1 (𝑋 1, ..., 𝑋𝑛1 ), 𝑓2 (𝑋𝑛1 +1, ..., 𝑋𝑛2 ), ..., 𝑓𝑘 (𝑋𝑛𝑘−1 +1, ..., 𝑋𝑛𝑘 )
est indépendante sous réserve que 𝑓𝑖 (𝑋𝑛𝑖−1 +1, . . . , 𝑋𝑛𝑖 ), 𝑖 = 1, . . . , 𝑘 soit une variable
aléatoire.
II
Variable aléatoire à densité
Définition 12.10
(Ω, A, 𝑃) un espace probabilisé.
Une variable aléatoire réelle 𝑋 est dite de loi à densité ou de loi continue (relativement
à P ) si sa fonction de répartition 𝐹𝑋 est continue sur R et de classe 𝐶 1 sur R privé d’un
sous-ensemble fini 𝐷 (éventuellement vide).
On appelle alors densité de 𝑋 la fonction définie sur R par :
𝑓𝑋 (𝑡) = 𝐹𝑋0 (𝑡) pour 𝑡 ∈ R\𝐷 et des valeurs arbitraires sur 𝐷. (généralement on pose
𝑓𝑋 (𝑡) = 0 pour 𝑡 ∈ 𝐷).
Remarque 12.8
Si 𝑋 est de loi continue, alors pour tout 𝑎 ∈ R, 𝑃 (𝑋 = 𝑎) = 0.
En effet ceci vient du fait que pour une variable aléatoire quelconque : 𝑃 (𝑋 = 𝑎) =
𝐹𝑋 (𝑎)− lim− 𝐹𝑋 (𝑎).
𝑥→𝑎
Proposition 12.10
Si 𝑋 est une variable aléatoire continue de densité 𝑓𝑋 , alors :
Pour tout 𝑎, 𝑏 ∈ R, 𝑎 6 𝑏, 𝑎 𝑓𝑋 (𝑡)𝑑𝑡 converge et on a
∫𝑏
∫ 𝑏
𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎) = 𝑓𝑋 (𝑡)𝑑𝑡
𝑎
Preuve
Si [𝑎, 𝑏] ∩ 𝐷 = ∅, alors le résultat est immédiat du fait que 𝐹𝑋 sera une primitive de 𝑓𝑋 sur [𝑎, 𝑏].
Supposons maintenant ∫ 𝑥que [𝑎, 𝑏] ∩ 𝐷 = {𝑥 1, ..., 𝑥𝑝 } est non vide. On pose 𝑥 0 = 𝑎, 𝑥𝑝+1 = 𝑏
Pour tout 𝑖 ∈ | [0, 𝑝] |, 𝑥 𝑖+1
𝑓𝑋 (𝑡)𝑑𝑡 converge car 𝐹𝑋 qui est primitive de 𝑓𝑋 sur ]𝑥𝑖 , 𝑥𝑖+1 [ admet une
𝑖
limite finie en 𝑥𝑖 et 𝑥𝑖+1 , et on a
∫ 𝑥𝑖+1
𝑓𝑋 (𝑡)𝑑𝑡 = 𝐹 (𝑥𝑖+1 ) − 𝐹 (𝑥𝑖 )
𝑥𝑖
D’où l’existence 𝑎 𝑓𝑋 et on a
∫𝑏
∫ 𝑏 𝑝 ∫ 𝑥𝑖+1
∑︁ 𝑝
∑︁
𝑓𝑋 = 𝑓𝑋 = 𝐹𝑋 (𝑥𝑖+1 ) − 𝐹𝑋 (𝑥𝑖 ) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎)
𝑎 𝑖=0 𝑥𝑖 𝑖=0
Si l’une des bornes de 𝐼 est infinie, alors en utilisant en plus le fait que :
Propriété 12.11
La fonction densité de probabilité d’une variable aléatoire de loi continue est positive,
continue sur R privé d’un nombre fini de points et
∫
𝑓𝑋 (𝑡)𝑑𝑡 = 1
R
𝑃 (𝑌 6 𝑥) = 𝑃 (−𝑥 6 𝑋 6 𝑥)
= 𝐹𝑋 (𝑥) − 𝐹𝑋 (−𝑥)
Donc 𝐹𝑌 est continue sur R, 𝐶 1 sur R privé d’un nombre fini de points. En dérivant aux
bons points, la densité est donc donnée par
Sinon 𝑓 |𝑋 | (𝑥) = 0
si 𝑎 > 0,
𝑥 −𝑏 𝑥 −𝑏
𝑃 (𝑌 6 𝑥) = 𝑃 (𝑋 6 ) = 𝐹𝑋 ( )
𝑎 𝑎
si 𝑎 < 0,
𝑥 −𝑏 𝑥 −𝑏
𝑃 (𝑌 6 𝑥) = 𝑃 (𝑋 > ) = 1 − 𝐹𝑋 ( )
𝑎 𝑎
En dérivant aux bons points on obtient la densité de 𝑌
1 𝑥 −𝑏
𝑓𝑌 (𝑥) = 𝑓𝑋 ( ).
|𝑎| 𝑎
si 𝑥 < 0, 𝑃 (𝑌 6 𝑥) = 0.
√ √ √ √
si 𝑥 > 0, 𝑃 (𝑌 6 𝑥) = 𝑃 (− 𝑥 6 𝑋 6 𝑥) = 𝐹𝑋 ( 𝑥) − 𝐹𝑋 (− 𝑥).
En dérivant on obtient la densité de 𝑌
𝑓𝑌 (𝑥) = 0 si 𝑥 < 0.
1 √ √
𝑓𝑌 (𝑥) = √ (𝑓𝑋 ( 𝑥) + 𝑓𝑋 (− 𝑥)) si 𝑥 > 0.
2 𝑥
si 𝑥 < 0, 𝑃 (𝑌 6 𝑥) = 0.
si 𝑥 > 0, 𝑃 (𝑌 6 𝑥) = 𝑃 (𝑋 6 ln(𝑥)) = 𝐹𝑋 (ln(𝑥)).
En dérivant on obtient la densité de 𝑌
𝑓𝑌 (𝑥) = 0 si 𝑥 < 0.
1
𝑓𝑌 (𝑥) = (𝑓𝑋 (ln(𝑥)) si 𝑥 > 0.
𝑥
Cette loi est l’analogue continu de l’équiprobabilité dans le cas discret. Elle permet de
modéliser le tirage d’un nombre aléatoire dans l’intervalle [a, b].
Une variable 𝑋 se répartissant de façon uniforme dans le segment [𝑎, 𝑏] est définie par la
1
densité 𝑓 = 𝑏−𝑎 sur [𝑎, 𝑏],
Autrement dit la densité de cette loi est
1
𝑓 = 1 [𝑎,𝑏 ] .
𝑏 −𝑎
𝐹 (𝑥) = 0, si 𝑥 6 𝑎
𝑋
𝑏−𝑎 , si 𝑥 ∈ [𝑎, 𝑏].
𝐹𝑋 (𝑥) = 𝑥−𝑎
𝐹𝑋 (𝑥) = 1, si 𝑥 > 𝑏.
Exercice 12.2
Soient (𝑋𝑘 )𝑘 ∈N des variables aléatoires suivant une loi uniforme sur [0, 1], indépen-
dantes.
1. Soit 0 6 𝑘 ∈ N et soit 𝑈𝑘 = min(𝑋 0, . . . , 𝑋𝑘 ). Démontrer que 𝑈𝑘 admet une
densité que l’on déterminera.
2. Soit 𝑁 une variable aléatoire suivant une loi binomiale B(𝑛, 1/2) et indépendante
avec les 𝑋𝑘 . Démontrer que 𝑈 = min(𝑋 0, . . . , 𝑋 𝑁 ) admet une densité que l’on
déterminera.
solution 12.3, page 39
En pratique, plutôt que de travailler avec la fonction de répartition d’une loi exponentielle,
il est plus commode d’utiliser la fonction de survie 𝐺 :
(
1, si 𝑥 6 0,
𝐺 (𝑥) = 𝑃 (𝑋 > 𝑥) = 1 − 𝐹𝑋 (𝑥) = −𝜆𝑥
𝑒 , si 𝑥 > 0.
Modélisation
Les lois exponentielles sont souvent choisies pour modéliser des temps d’attente :
temps d’attente à partir de maintenant du prochain tremblement de terre, du prochain
faux numéro sur une ligne téléphonique, de la prochaine désintégration d’un atome
de radium, etc. La raison de ce choix est la propriété d’absence de mémoire en temps
continu qui caractérise la famille des lois exponentielles.
Exercice 12.4
Montrer qu’une variable aléatoire positive à densité est sans mémoire si, et seulement si
elle suit une loi exponetielle.
solution 12.4, page 40
Exercice 12.5
Soit 𝑈 une variable aléatoire de loi uniforme sur [0, 1]. Démontrer que la variable
aléatoire 𝑋 = − ln 𝑈 suit une loi exponentielle.
solution 12.5, page 41
Soit 𝑋 une variable aléatoire suivant une loi exponentielle de paramètre 1. On note
𝑌 = 𝑒 (𝑋 ) sa partie entière “supérieure”, c’est-à-dire que 𝑒 (1.5) = 2 et 𝑒 (3) = 3.
1. Démontrer que 𝑌 suit une loi géométrique dont on précisera le paramètre.
2. On note 𝑍 = 𝑌 − 𝑋 . Quelle est sa fonction de répartition ?
3. En déduire que 𝑍 est une variable aléatoire à densité dont la densité est
𝑒𝑥
𝑓 (𝑥) = 1 [0,1] (𝑥).
𝑒 −1
solution 12.6, page 41
Modélisation :
La loi Gamma peut décrire des phénomènes de durée de vie, en assurance pour l’étude
du temps écoulé entre deux sinistres . En général pour des distributions fortement
asymétriques avec une décroissance rapide en queue de distribution, une loi Gamma
𝑓 :𝑠 →
∑︁
𝑃 (𝑋 1 = 𝑢) 𝑓2 (𝑠 − 𝑢)
𝑢 ∈𝐷 1
Dans le cas discret infini où 𝐷 = (𝑢𝑛 )𝑛 ∈N , l’interversion de série et integrale vient de la convergence
de la série 𝑛 −∞ |𝑃 (𝑋 1 = 𝑢𝑛 ) 𝑓 (𝑡 − 𝑢𝑛 )|𝑑𝑡, cette convergence qui est dûe au fait que toute somme
P ∫𝑠
finie est inférieure à 𝑃 (𝑋 1 + 𝑋 2 6 𝑠)
Théorème 12.13
Si (𝑋 1, 𝑋 2 ) est un couple de variables aléatoires réelles indépendantes dont les lois sont
soit continue sauf éventuellement en un nombre fini de points alors la variable aléatoire
𝑆 = 𝑋 1 + 𝑋 2 est à densité, de densité définie en dehors d’un nombre fini de points par :
∫ +∞
𝑓 :𝑥 → 𝑓1 (𝑡)𝑓2 (𝑥 − 𝑡)𝑑𝑡
−∞
Preuve
Il suffit de le montrer pour le cas 𝑛 = 2. Le cas général s’en déduit par récurrence en passant par le
théorème d’indépendance héritée.
Posons 𝑋 = 𝑋 1 + 𝑋 2 .
Donc déja pour 𝑥 6 0, 𝑓𝑋 (𝑥) = 0.
Supposons que 𝑥 > 0.
∫ 𝑥 𝛼 1 𝛼 1 −1 −𝜆𝑡 𝛼 2
𝜆 𝑡 𝑒 𝜆 (𝑥 − 𝑡)𝛼 2 −1𝑒 −(𝑥−𝑡 )𝜆
𝑓𝑋 (𝑥) = 𝑑𝑡
0 Γ(𝛼 1 ) Γ(𝛼 2 )
𝜆𝛼 1 +𝛼 2 𝑒 −𝜆𝑥
∫ 𝑥
= 𝑡 𝛼 1 −1 (𝑥 − 𝑡)𝛼 2 −1𝑑𝑡
Γ(𝛼 1 )Γ(𝛼 2 ) 0
∫ 1
𝜆𝛼 1 +𝛼 2 𝑥 𝛼 1 +𝛼 2 −1𝑒 −𝜆𝑥
= 𝑢 𝛼 1 −1 (1 − 𝑢)𝛼 2 −1𝑑𝑡
Γ(𝛼 1 )Γ(𝛼 2 ) 0
∫1
On pose 𝑐 = 0 𝑢 𝛼 1 −1 (1 − 𝑢)𝛼 2 −1𝑑𝑡.
𝛼 1 +𝛼 2 𝛼 1 +𝛼 2 −1 −𝜆𝑥
𝑓𝑋 (𝑥) = 𝑐 𝜆 Γ (𝛼𝑥 )Γ (𝛼 )𝑒 , 𝑓𝑋 est bien continue sur R∗ .
1 2
En utilisant la condition de normalisation
∫
𝑓𝑋 (𝑡)𝑑𝑡 = 1
R
∫1 Γ (𝛼 )Γ (𝛼 )
On retrouve 𝑐 = 0 𝑢 𝛼 1 −1 (1 − 𝑢)𝛼 2 −1𝑑𝑡 = Γ (𝛼1 +𝛼 )2 , puis
1 2
𝑥 𝛼 1 +𝛼 2 −1𝑒 −𝜆𝑥
𝑓𝑋 (𝑥) =
Γ(𝛼 1 + 𝛼 2 )𝑏 𝛼 1 +𝛼 2
𝑋 suit donc la loi Γ(𝛼 1 + 𝛼 2 .𝜆).
NB Le théorème du produit de convolution nous permet de retrouver la formule fondamentale :
∫ 1
Γ(𝑥)Γ(𝑦)
𝑥, 𝑦 > 0 𝑡 𝑥−1 (1 − 𝑡) 𝑦−1𝑑𝑡 =
0 Γ(𝑥 + 𝑦)
En particulier
1 Soit 𝑋 1, ..., 𝑋𝑛 mutuellement indépendantes, suivant toutes la même loi N (𝑚, 𝜎 2 ).
Alors
𝑛
𝑋𝑖 ↩→ N (𝑛𝑚, 𝑛𝜎 2 )
∑︁
𝑖=1
Preuve
𝑋 − 𝑚 ↩→ N (0, 𝜎 2 ), 𝑌 − 𝑚 0 ↩→ N (0, 𝜎 02 )
𝑋 + 𝑌 − (𝑚 + 𝑚 0 ) ↩→ 𝑁 (0, 𝜎 2 + 𝜎 02 )
et
𝑋 + 𝑌 ↩→ N (𝑚 + 𝑚 0, 𝜎 2 + 𝜎 02 )
Proposition 12.17
La variable aléatoire continue 𝑋 admet une espérance si et seulement si il exite ( ou
quelque soit ) 𝑏, 𝑐 ∈ R, 𝑏 < 𝑐 tel que la fonction
𝑡 → 𝑡 𝑓𝑋 (𝑡)
1 Montrer que :
∫ 𝑥
+
∀𝑥 ∈ R , 𝜑 (𝑥) = (1 − 𝐹 (𝑡))𝑑𝑡 − 𝑥𝑃 (𝑋 > 𝑥)
0
Établir que ∫ +∞
𝐸 (𝑋 ) = 𝑃 (𝑋 > 𝑡)𝑑𝑡
0
solution 12.8, page 42
II.8 Transferts
Proposition 12.19
𝑋 admet une espérance si et seulement si |𝑋 | l’admet. Au quel cas :
|𝐸 (𝑋 )| 6 𝐸 (|𝑋 |)
Preuve
Une démonstration n’utilisant pas le théorème de transfert.
|𝑋 | admet une espérance si et seulement si 𝑡 → 𝑡 𝑓 |𝑋 | (𝑡) est intégrable, on sait qu’en dehors d’un
nombre fini de points (
𝑓 |𝑋 | (𝑡) = 0, si 𝑡 6 0
𝑓 |𝑋 | (𝑡) = 𝑓𝑋 (𝑡) + 𝑓𝑋 (−𝑡)
Donc si 𝑋 admet une espérance, alors on aura l’intégrabilité de 𝑡 → 𝑡 𝑓𝑋 (𝑡) et 𝑡 → 𝑡 𝑓𝑋 (−𝑡), D’où celle
de 𝑡 → 𝑡 𝑓 |𝑋 | (𝑡).
Inversement si 𝑡 → 𝑡 𝑓 |𝑋 | (𝑡) est intégrable, alors pour tout 𝑎 > 0.
∫ 𝑎 ∫ 0 ∫ 𝑎
|𝑡 |𝑓𝑋 (𝑡)𝑑𝑡 = |𝑡 |𝑓𝑋 (𝑡)𝑑𝑡 + |𝑡 |𝑓𝑋 (𝑡)𝑑𝑡
−𝑎 0
∫−𝑎𝑎
= |𝑡 |(𝑓𝑋 (−𝑡) + 𝑓𝑋 (𝑡))𝑑𝑡
0
∫ 𝑎
= |𝑡 |(𝑓 |𝑋 | (𝑡)𝑑𝑡
0
|𝐸 (𝑋 )| 6 𝐸 (|𝑋 |)
|𝐸 (𝑋 )| 6 𝐸 (𝑌 )
Propriétés 12.21
Définition 12.12
Si 𝑋 admet un moment d’ordre 1, on appelle variable centrée associée à 𝑋 la variable
aléatoire centrée
𝑋˜ = 𝑋 − 𝐸 (𝑋 )
Proposition 12.22
Soit (𝑋 1, . . . , 𝑋 𝑁 ) une suite de v.a. indépendantes sur (Ω, A, 𝑃). Alors le produit
𝑋 1 · · · 𝑋 𝑁 a une espérance si et seulement si chaque 𝑋 𝑗 a une espérance. Dans ces
conditions l’espérance du produit est le produit des espérances :
IE(𝑋 1 · · · 𝑋 𝑁 ) = IE(𝑋 1 ) · · · IE(𝑋 𝑁 ).
Soit 𝑋 ↩→ E(𝜆).
Soit 𝑋 une variable aléatoire réelle suivant la loi uniforme sur le segment [−1, 2].
1 Quelle est la loi de 𝑌 = 𝑋 2 ?
2 Déterminer l’espérance de 𝑌 .
solution 12.10, page 44
Soient 𝑚, 𝜎 deux réels. On dit que 𝑋 suit une loi log-normale de paramètres (𝑚, 𝜎 2 ) si
𝑌 = ln 𝑋 suit une loi normale N (𝑚, 𝜎 2 ). On supposera dans la suite 𝑚 = 0 et 𝜎 = 1.
1. Exprimer la fonction de répartition de 𝑋 à l’aide de la fonction de répartition 𝜙
de la loi normale centrée réduite.
2. Calculer sa densité.
√
3. Démontrer que 𝐸 (𝑋 ) = 𝑒.
solution 12.11, page 44
Proposition 12.23
Proposition 12.24
Si la variable aléatoire réelle 𝑋 admet un moment d’ordre 𝑘 ∈ N∗ , alors elle admet un
moment d’ordre 𝑗 pour tout 𝑗 ∈ {1, ..., 𝑘 } ; de même la variable aléatoire réelle 𝑋 + 𝛼
Définition 12.14
Si la variable aléatoire réelle 𝑋 admet un moment d’ordre 2, on appelle variance de 𝑋 la
quantité
𝑉 (𝑋 ) = 𝐸 ((𝑋 − 𝐸 (𝑋 )) 2 )
et l’écart type de 𝑋 la racine carrée de la variance :
√︁
𝜎 (𝑋 ) = 𝑉 (𝑋 )
Proposition 12.25
Si 𝑋 admet une moment d’ordre 2, alors la variance de 𝑋 est donnée par :
∫ +∞
Var(𝑋 ) = (𝑡 − 𝐸 (𝑋 )) 2 𝑓𝑋 (𝑡)𝑑𝑡
−∞
Définition 12.15
Si 𝑋 admet un moment d’ordre 2, on appelle variable centrée réduite associée à 𝑋 la
variable aléatoire réelle
(𝑋 − 𝐸 (𝑋 ))
𝑋∗ =
𝜎 (𝑋 )
C’est une variable d’espérance nulle et de variance égale à 1.
Remarque 12.9
La variance est donc une moyenne de l’écart entre 𝑋 et sa moyenne au carré. Elle
caractérise la dispersion de 𝑋 par rapport ‘ a sa moyenne. Pour des raisons d’homogénéité,
on lui préfère souvent dans les applications pratiques l’écart-type.
Proposition 12.28
Si 𝑋 et 𝑌 sont des variables aléatoires réelles admettant un moment d’ordre 2, alors :
1 la variable aléatoire 𝑋𝑌 admet une espérance et
(𝐸 (𝑋𝑌 )) 2 6 𝐸 (𝑋 2 )𝐸 (𝑌 2 ) (Cauchy-Schwarz)
𝑉 (𝑆) = 𝑉 (𝑋 ) + 𝑉 (𝑌 ) + 2𝐸 (𝑋 − 𝐸 (𝑋 ))(𝑌 − 𝐸 (𝑌 ))
Définition 12.16
Si 𝑋 et 𝑌 sont des variables aléatoires réelles admettant un moment d’ordre 2, on définit
la covariance du couple (𝑋, 𝑌 ) par la formule
𝑉 (𝑋 + 𝑌 ) = 𝑉 (𝑋 ) + 𝑉 (𝑌 ) + 2𝐶 (𝑋, 𝑌 )
Remarque 12.10
La covariance entre les variables 𝑋 et 𝑌 un nombre permettant de quantifier leurs écarts
conjoints par rapport à leurs espérances respectives
Remarque 12.11
La convariance est une application bilinéaire symétrique.
Propriété 12.29
Si 𝑋 1, ..., 𝑋𝑛 sont des variables aléatoires, alors
𝑛 𝑛
Var( Var(𝑋𝑖 ) + 2
∑︁ ∑︁ ∑︁
𝑋𝑖 ) = 𝐶 (𝑋𝑖 , 𝑋 𝑗 )
𝑖=1 𝑖=1 𝑖< 𝑗
Preuve
Une récurrence fait l’affaire.
Proposition 12.30
Si 𝑋 et 𝑌 sont des variables aléatoires réelles admettant un moment d’ordre 2 et si ces
variables sont indépendantes, leur covariance est nulle.
Auquel cas La variance de la somme est alors la somme des variances.
𝐶 (𝑋, 𝑌 )
𝜌 (𝑋, 𝑌 ) =
𝜎 (𝑋 )𝜎 (𝑌 )
Définition 12.18
Deux variables 𝑋, 𝑌 dont le coefficient de corrélation 𝜌 est nul sont dites décorrélées.
Ce qui est équivalent à 𝑉 (𝑋 + 𝑌 ) = 𝑉 (𝑋 ) + 𝑉 (𝑌 )
Proposition 12.31
Le coefficient de corrélation linéaire du couple (𝑋, 𝑌 ) est un élément de l’intervalle
[−1, 1].
Le cas 𝜌 = 1 équivaut à (𝑌 = 𝛼𝑋 + 𝛽 avec 𝛼 > 0) p.s
le cas 𝜌 = −1 équivaut à (𝑌 = 𝛼𝑋 + 𝛽 avec 𝛼 < 0) p.s
Preuve
Par l’inégalité de Cauchy Schwartz
D’où
|𝜌 (𝑋, 𝑌 )| 6 1
√︁ √︁
𝜌 (𝑋, 𝑌 ) = 1 ⇐⇒ 𝐸 ((𝑋 − 𝐸 (𝑋 ))(𝑌 − 𝐸 (𝑌 ))) = 𝐸 (𝑋 − 𝐸 (𝑋 )) 𝐸 (𝑋 − 𝐸 (𝑋 ))
C’est un cas d’égalité dans l’inégalité de Cauchy-Schwartz. ce qui se traduira de manière équivalente
par le fait que 𝑋 = 𝐸 (𝑋 ) ou il existe 𝛼 > 0 tel que 𝑌 − 𝐸 (𝑌 ) = 𝛼 (𝑋 − 𝐸 (𝑋 )),
C’est à dire encore 𝑋 = 𝐸 (𝑋 ), ou 𝑌 = 𝛼𝑋 + 𝛽.
On fait de même lorsque 𝜌 = −1.
Remarque 12.12
le coefficient de corrélation linéaire qui est une mesure de la direction et de l’intensité
de l’association linéaire entre deux variables.
Introduction :
Dans le cas de variables aléatoires à valeurs entières positives la fonction génératrice
caractérise la loi, et permet de calculer les moments, la fonction génératrice d’une somme
de variables aléatoires indépendantes est le produit des fonctions génératrices.
La transformation de Fourier (resp. de Laplace) étend ces propriétés au cas des variables
aléatoires réelles quelconques (resp. positives).
Définition 12.19
On appelle fonction caractéristique d’une variable aléatoire réelle 𝑋 continue la fonction
𝜑𝑋 de R dans C définie par :
∫
𝑖𝑡𝑋
𝜑𝑋 (𝑡) = 𝐸 (𝑒 ) = 𝑒 𝑖𝑡𝑥 𝑓𝑋 (𝑡)𝑑𝑡
R
Définition 12.20
La transformée de Laplace (ou fonction génératrice des moments) d’une variable aléa-
toire réelle 𝑋 est la fonction 𝐿𝑋 définie par
∫
𝐿𝑋 (𝑡) = 𝐸 (𝑒 −𝑡𝑋 ) = 𝑒 −𝑡𝑥 𝑓𝑋 (𝑡)𝑑𝑡
R
III
Convergences
𝐸 (𝑋 )
∀𝛼 > 0, 𝑃 (𝑋 > 𝛼) 6
𝛼
Preuve
∫ +∞ ∫ +∞ ∫𝛼
𝐸 (𝑋 ) = −∞ 𝑡 𝑓𝑋 (𝑡)𝑑𝑡 = 0 𝑡 𝑓𝑋 (𝑡)𝑑𝑡 > 𝛼 0 𝑓𝑋 (𝑡)𝑑𝑡 = 𝛼𝑃 (𝑋 > 𝛼)
Remarque 12.13
On peut interpreter cette inégalité par le fait que la variance permet de controler l’ecart
entre 𝑋 et 𝐸 (𝑋 ).
Remarque 12.14
Une autre variante de l’inégalité de Bienaymé-Tchebychev est
𝑉 (𝑋 )
𝑃 (|𝑋 − 𝐸 (𝑋 )| 6 𝜀) > 1 −
𝜀2
qui peut s’interpéter par le fait que 𝑋 approche 𝑚 = 𝐸 (𝑋 ) à 𝜀 près avec une probabailité
d’aux moins 1 − 𝑉𝜀𝑋2
Proposition 12.34
Si (𝑓𝑘 ) est une suite de fonctions R → R convergeant simplement vers 𝑔, et si 𝑋 est
une variable aléatoire de sorte que 𝑓𝑘 (𝑋 ) et 𝑔(𝑋 ) restent des variables aléatoires, alors
la suite de fonctions (𝑓𝑘 (𝑋 )) converge en probabilité vers 𝑔(𝑋 )
Preuve
Posons 𝐴𝑘 = {𝜔 ∈ Ω, |𝑓𝑘 (𝑋 (𝜔)) − 𝑔(𝑋 (𝜔))| > 𝜀}.
Posons ensuite 𝐵𝑘 = 𝐴𝑘 , la suite (𝐵𝑘 ) est décroissante, par convergence simple, on a 𝐵𝑘 = ∅.
S T
𝑛>𝑘 𝑘
par théorème de limite monotone, on aura 0 = lim 𝑃 (𝐵𝑘 ).
𝑘→+∞
Comme 0 6 𝑃 (𝐴𝑘 ) 6 𝑃 (𝐵𝑘 ), donc lim 𝑃 (𝐴𝑘 ) = 0, ce qui traduit exactement la convergence en
𝑘→+∞
probabilité.
Théorème 12.35
La convergence en probabilité entraine la convergence en loi, la réciproque est fausse
converge en loi vers une loi normale centrée réduite N (0, 1) où 𝑚 est l’espérance
commune et 𝜎 l’écart-type commun.
Remarque 12.15
𝑛
© √𝑛
P
1
𝑛 © 𝑘=1𝑋𝑘
𝑋𝑘 − 𝑛𝑚 𝑛 − 𝑚 ®® qui est la centré réduite de la variable aléatoire
P
=
√
ªª
𝜎 𝑛
𝜎
𝑘=1
𝑛
« « ¬¬
P
𝑋𝑘
𝑘=1
𝑛
IV
Convergence de variables aléatoires
Proposition 12.38
Si (𝑓𝑘 ) est une suite de fonctions R → R convergeant simplement vers 𝑔, et si 𝑋 est
une variable aléatoire de sorte que 𝑓𝑘 (𝑋 ) et 𝑔(𝑋 ) restent des variables aléatoires, alors
la suite de fonctions (𝑓𝑘 (𝑋 )) converge en probabilité vers 𝑔(𝑋 )
Preuve
Posons 𝐴𝑘 = {𝜔 ∈ Ω, |𝑓𝑘 (𝑋 (𝜔)) − 𝑔(𝑋 (𝜔))| > 𝜀}.
Posons ensuite 𝐵𝑛 = 𝐴𝑘 , la suite (𝐵𝑘 ) est décroissante, par convergence simple, on a 𝐵𝑘 = ∅.
S T
𝑛>𝑘 𝑘
par théorème de limite monotone, on aura 0 = lim 𝑃 (𝐵𝑘 ).
𝑘→+∞
Comme 0 6 𝑃 (𝐴𝑘 ) 6 𝑃 (𝐵𝑘 ), donc lim 𝑃 (𝐴𝑘 ) = 0, ce qui traduit exactement la convergence en
𝑘→+∞
probabilité.
Exercice 12.12
On dit que la suite de variables aléatoires (𝑋𝑛 ) converge presque surement vers la
variable aléatoire 𝑋 s’il existe une événement Ω 0 presque certain tel que :
Var(𝑋 )
∀𝑡 > 0, 𝑃 (|𝑆𝑛 − 𝐸 (𝑆𝑛 )| > 𝑡) 6
𝑡2
𝐸 (𝑆𝑛 ) = 𝑛𝐸 (𝑋 1 ), Var(𝑆𝑛 ) = 𝑛Var(𝑋 1 ).
Pour 𝑡 = 𝑛𝜀, on obtient
𝑆𝑛 Var(𝑋 1 )
𝑃 (| − 𝐸 (𝑋 1 )| > 𝜀) 6 −→ 0
𝑛 𝑛𝜀 2
Proposition 12.40
(𝑋𝑛 ) une suite de variables aléatoires, on suppose que 𝑋𝑛 et 𝑌 sont à valeurs dans N,
alors
(𝑋𝑛 ) converge en loi vers 𝑌 si et seulement si
∀𝑘 ∈ N : lim 𝑃 (𝑋𝑛 = 𝑘) = 𝑃 (𝑌 = 𝑘)
𝑛→+∞
Preuve
L’ensemble 𝐷 des points de discontinuité de 𝑌 est une partie de N.
=⇒)Soit 𝑘 ∈ N, pour 𝜀 ∈]0, 1[, 𝑘 + 𝜀 est un élément R\𝐷𝑌 .
Exemple 12.1
Soit 𝑐 > 0 un nombre fixé. Nous considérons la v.a. 𝑋 = 0 et la suite de v.a. (𝑋𝑛 , 𝑛 ∈ N)𝑛
ne prenant que deux valeurs, définies par :
1 1
∀𝑛 ∈ N, 𝑃 (𝑋𝑛 = 𝑛𝑐 ) = et 𝑃 (𝑋𝑛 = 0) = 1 −
𝑛 𝑛
Il est facile alors de constater que, pour tout 𝜀 > 0 fixé et pour tout 𝑛 > 1, nous avons :
1
𝑃 (|𝑋𝑛 − 𝑋 | > 𝜀) = 𝑃 (|𝑋𝑛 | > 𝜀) = 𝑃 (𝑋𝑛 = 𝑛𝑐 ) = −→ 0.
𝑛
Ainsi nous en déduisons (𝑥𝑛 ) converge en probabilité vers 𝑋 = 0.
Exemple 12.2
𝑛(𝑛 − 1)...(𝑛 − 1 + 𝑘) v 𝑛𝑘
D’autre part :
𝜆 1
𝑝𝑛 = + 𝑜( )
𝑛 𝑛
Donc :
𝜆 1
lim (1 − 𝑝𝑛 ) −𝑘 = 0 et (1 − 𝑝𝑛 )𝑛 = exp(𝑛 ln(1 − + 𝑜 ( ))) −→ exp(−𝜆)
𝑛→+∞ 𝑛 𝑛
Théorème 12.41
La convergence en probabilité entraine la convergence en loi.
Remarque 12.16
La réciproque est fausse comme le montre l’exemple suivant : 𝑋 une variable aléatoire
de valeurs prises 1 et −1, avec 𝑃 (𝑋 = 1) = 𝑃 (𝑋 = −1) = 21 .
Soit pour tout 𝑛 ∈ N, la variable aléatoire définie par
(
𝑋𝑛 = 𝑋 si 𝑛 pair
𝑋𝑛 = −𝑋 si 𝑛 impair
𝑃 (𝑋𝑛 = 𝑘) = 𝑃 (𝑋 = 𝑘) −→ 𝑃 (𝑋 = 𝑘)
Mais
𝑃 (|𝑋 2𝑛+1 − 𝑋 | > 𝜀) = 𝑃 (2|𝑋 | > 1) = 𝑃 (|𝑋 | = 1) = 1
La suite (𝑋𝑛 ) ne converge pas en probabilité vers 𝑋 .
Exercice 12.13
V
Solutions des exercices
𝐹𝑋 est continue sur R de classe 𝐶 1 sur R\{0, 1}, donc 𝑋 est continue de densité 𝑓𝑋 définie
par
0, 𝑥 < 0
𝑓𝑋 = (𝑘 + 1)(1 − 𝑥)𝑘 , 0 < 𝑥 < 1
0, 𝑥 > 1
𝑛
∑︁
𝑃 (𝑈 6 𝑥) = 𝑃 (𝑁 = 𝑘, 𝑈 6 𝑥)
𝑘=0
𝑛
∑︁
= 𝑃 (𝑁 = 𝑘, 𝑈𝑘 6 𝑥)
𝑘=0
𝑛
∑︁
= 𝑃 (𝑁 = 𝑘)𝐹𝑈𝑘 (𝑥)
𝑘=0
0, 𝑥 6 0
𝑛
P
𝑛 1 𝑛 𝑘+1 ), 0 6 𝑥 6 1
= 𝑘 ( 2 ) (1 − (1 − 𝑥)
𝑘=0
1, 𝑥 > 1
𝐹𝑈 est continue de classe 𝐶 1 sur R\{0, 1}, donc 𝑈 est une var à densité de densité 𝑓𝑋
définie par :
0, 𝑥 < 0
𝑓𝑋 = ( 12 )𝑛 (2 − 𝑥)𝑛 (𝑛 + 2 − (𝑛 + 1)𝑥), 0 < 𝑥 < 1
0, 𝑥 > 1
Posons 𝑎 = 𝐺 (1).
• Pour 𝑛 ∈ N, 𝐺 (𝑛) = 𝐺 (1 + ... + 1) = 𝐺 (1)𝑛 = 𝑎𝑛 .
• Pour 𝑛 ∈ N∗, 𝐺 (1) = 𝐺 (𝑛 × 𝑛1 ) = (𝐺 (1/𝑛))𝑛 donc 𝐺 (1/𝑛) = 𝑎 1/𝑛
Pour 𝑟 = ∈ Q+, 𝐺 (𝑟 ) = 𝐺 (𝑝 × 𝑞1 ) = 𝐺 (1/𝑞) 𝑝 = 𝑎𝑟
𝑝
• 𝑞
• Par continuité de 𝐺 sur R, alors ∀𝑥 ∈ R+, 𝐺 (𝑥) = 𝑎𝑥 , 𝑎 est un réel positif non nul
car lim 𝐺 (𝑥) = 1, de même 𝑎 < 1, si on pose 𝜆 = − ln 𝑎, alors ∀𝑥 > 0, 𝐺 (𝑋 ) = 𝑒 −𝜆𝑥 , 𝑋
𝑥→−∞
suit alors une loi exponentielle.
𝑃 (𝑋 6 𝑥) = 𝑃 (− ln 𝑈 6 𝑥)
= 𝑃 (𝑈 > 𝑒 −𝑥 )
= 1 − 𝑃 (𝑈 < 𝑒 −𝑥 )
(
0, 𝑥 6 0
=
1 − 𝑒 −𝑥 , 𝑥 > 0
1 𝑌 (Ω) ∈ N∗ .
𝑘 ∈ N∗, 𝑃 (𝑌 = 𝑘) = 𝑃 (𝑘 − 1 < 𝑋 6 𝑘) = 𝑘−1 𝑒 −𝑡 𝑑𝑡 = 𝑒 −(𝑘−1) (1 − 𝑒 −1 ). Donc 𝑌 suit la loi
∫𝑘
géomètrique de paramètre 1 − 𝑒 −1 .
2 𝑃 (𝑍 6 𝑥) = 𝑃 (𝑌 − 𝑋 6 𝑥), comme 0 6 𝑌 − 𝑋 < 1, alors 𝑃 (𝑌 − 𝑋 6 𝑥) = 0 si 𝑥 < 0
et 𝑃 (𝑌 − 𝑋 6 𝑥) = 1 si 𝑥 > 1.
On suppose que 𝑥 ∈ [0, 1[.
+∞
∑︁
𝑃 (𝑌 − 𝑋 6 𝑥) = 𝑃 (, 𝑌 = 𝑘, 𝑋 > 𝑘 − 𝑥)
𝑘=1
+∞
∑︁
= 𝑃 (𝑌 = 𝑘, 𝑋 > 𝑘 − 𝑥)
𝑘=1
+∞
∑︁
= 𝑃 (𝑘 − 𝑥 6 𝑋 6 𝑘)
𝑘=1
+∞ ∫ 𝑘
𝑒 −𝑡 𝑑𝑡
∑︁
=
𝑘=1 𝑘−𝑥
+∞
(𝑒 −(𝑘−𝑥) − 𝑒 −𝑘 )
∑︁
=
𝑘=1
+∞
= (𝑒 − 1) 𝑒 −𝑘
𝑥
∑︁
𝑘=1
𝑒𝑥 −1
=
𝑒 −1
3 Se déduit du résultat précédent, en dérivant.
1 𝑌 (Ω) = N.
𝑛 ∈ N, 𝑃 (𝑌 = 𝑛) = 𝑃 (𝑛 6 𝑋 < 𝑛 + 1) = 𝜆 𝑛 𝑒 −𝜆𝑡 𝑑𝑡 = 𝑒 −𝜆𝑛 (1 − 𝑒 −𝜆 ).
∫ 𝑛+1
1 • Pour 𝑥 ∈] − ∞, 0], 𝑃 (𝑌 6 𝑥) = 0.
√
• Pour 𝑥 > 2 c’est à dire 𝑥 > 4, alors 𝑃 (𝑌 6 𝑥) = 1.
√ √ √ √
• Pour 𝑥 ∈ [1, 4], 𝑃 (𝑌 6 𝑥) = 𝑃 (𝑋 6 𝑥) − 𝑃 (𝑋 < − 𝑥) = 𝑃 (𝑋 6 𝑥) = 3 .
𝑥+1
√ √ √ √
•√ Si 𝑥 ∈ [0,
√
1[, alors
√
𝑥, − 𝑥 ∈ [−1, 2] et donc 𝑃 (𝑌 6 𝑥) = 𝑃 (𝑋 6 𝑥) − 𝑃 (𝑋 < − 𝑥) =
− 𝑥+1 2 𝑥
= 3 .
𝑥+1
3 − 3
𝑌 est de densité
0, 𝑥 < 0
3√1𝑥 , 0 < 𝑥 < 1
𝑓𝑌 (𝑥) = 1
√ , 1 <𝑥 < 4
6
𝑥
0, 𝑥 > 4
∫2 ∫2
• Par le théorème de transfert 𝐸 (𝑌 ) = −1 𝑡 2 𝑓𝑋 (𝑡)𝑑𝑡 = 13 −1 𝑡 2𝑑𝑡 = 1
𝐸 (𝑋 ) = 𝐸 (𝑒 𝑌 )
∫
= 𝑒 𝑦 𝑓𝑌 (𝑦)𝑑𝑦
∫R
1 1 2
= 𝑒 𝑦 √ 𝑒 − 2 𝑦 𝑑𝑦
R 2𝜋
1
∫
1 2 1
= √ 𝑒 − 2 (𝑦−1) 𝑒 2 𝑑𝑦
2𝜋 R
√ 1
∫
1 2
= 𝑒√ 𝑒 − 2 𝑦 𝑑𝑦
2𝜋 R
√
= 𝑒