Chapitre 1 Conditionnement
1-1 Rappels de probabilités conditionnelles
1-1-1 Evènements – Probabilité
Soit Ω l’ensemble des résultats possibles d’une expérience aléatoire. Un élément de Ω est
appelé “ réalisation “. Un ensemble 𝐴 ⊂ Ω est appelé “évènement“ . Si w ∈ Ω , le singleton {𝑤} est
un évènement élémentaire , Ω est l’évènement certain, ∅ est l’évènement impossible.
- Si 𝐴 et 𝐵 sont deux évènements, 𝐴̅ est l’évènement contraire.
- Deux évènements 𝐴 et 𝐵 sont incompatibles ou disjoints si et seulement si 𝐴⋂𝐵 = ∅ .
- Une suite (𝐴𝑖 )1≤𝑖≤𝑛 est un système complet d’évènements si ∀𝑖 ≠ 𝑗 , 𝐴𝑖 ∩ 𝐴𝑗 = ∅ et
⋃𝑛𝑖=1 𝐴𝑖 = Ω
Un sous ensemble ℱ de Ω est appelé tribu ou 𝜎- algèbre sur Ω si
i- ∅ et Ω ∈ ℱ
ii- Si 𝐴 ∈ ℱ alors 𝐴̅ ∈ ℱ
iii- Si (𝐴𝑖 )𝑖≥1 est une suite d’évènements de ℱ alors ⋃∞
𝑖=1 𝐴𝑖 ∈ ℱ
Définition 1 Probabilité
On appelle probabilité sur (Ω, ℱ ) une application 𝑃 de ℱ dans [0,1] vérifiant les deux propriétés
suivantes :
i- 𝑃 ( Ω) = 1
ii- Pour toute suite (𝐴𝑖 )𝑖≥1 d’évènements de ℱ deux à deux incompatibles on a
∞ ∞
𝑃 (⋃ 𝐴𝑖 ) = ∑ 𝐴𝑖
𝑖=1 𝑖=1
Le triplet (Ω, ℱ, 𝑃) est appelé espace de probabilité .
Propriétés :
i- 𝑃(∅) = 0
ii- 𝑃(𝐴̅) = 1 − 𝑃(𝐴)
iii- 𝑃(𝐴⋃𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)
iv- Si 𝐴 et 𝐵 sont incompatibles , alors 𝑃(𝐴⋃𝐵) = 𝑃 (𝐴) + 𝑃(𝐵)
v- Pour toute famille 𝐴1 , 𝐴2 , … , 𝐴𝑛 d’évènements deux à deux incompatibles
𝑃(𝐴1 ⋃𝐴2 ∪ … ∪ 𝐴𝑛 ) = 𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯ 𝑃(𝐴𝑛 )
Définition 2 Equiprobabilité et probabilité uniforme
SoitΩ un ensemble fini. On dit qu’il y a équiprobabilité lorsque les probabilités de tous les
évènements élémentaires sont égales. Dans ce cas, 𝑃 est la probabilité uniforme. S’il y a
équiprobabilité, pour tout évènement 𝐴 , on a
1
𝐶𝑎𝑟𝑑 𝐴 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
𝑃 (𝐴 ) = =
𝐶𝑎𝑟𝑑 Ω 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠
1-1-2 Probabilités conditionnelles
Soient 𝐴 et 𝐵 deux évènements tel que 𝑃(𝐵) > 0. La probabilité conditionnelle de 𝐴 sachant 𝐵
est
𝑃 (𝐴 ∩ 𝐵 )
𝑃 (𝐴|𝐵) =
𝑃(𝐵)
Propriétés pour trois évènements 𝐴 ,𝐵 et 𝐶, on a
i- 𝑃(𝐵̅/𝐴) = 1 − 𝑃(𝐵|𝐴)
ii- 𝑃(𝐴 ∪ 𝐵|𝐶 ) = 𝑃 (𝐴|𝐶 ) + 𝑃(𝐵|𝐶 ) − 𝑃(𝐴 ∩ 𝐵|𝐶 )
iii- Si 𝐴 et 𝐵 sont incompatibles alors 𝑃(𝐴 ∪ 𝐵|𝐶 ) = 𝑃 (𝐴|𝐶 ) + 𝑃(𝐵|𝐶 )
Formule des probabilités composées :
Soient 𝐴1 , . . , 𝐴𝑛 des évènements tel que 𝑃(𝐴1 ∩. .∩ 𝐴𝑛 ) ≠ 0 on a
𝑃(𝐴1 ∩ … ∩ 𝐴𝑛 ) = 𝑃(𝐴1 )𝑃(𝐴2 /𝐴1 )𝑃(𝐴3 |𝐴1 ∩ 𝐴2 ) … 𝑃(𝐴𝑛 |𝐴1 ∩ 𝐴2 . . 𝐴𝑛−1 ).
Formule des probabilités totales : Soient 𝐵1 , . . , 𝐵𝑛 un système complet d’évènements de
probabilités toutes non nulles. Pour tout évènement 𝐴 on a
𝑛
𝑃(𝐴) = ∑ 𝑃(𝐵𝑖 )𝑃(𝐴|𝐵𝑖 )
𝑖=1
Formule de Bayes : Soient 𝐵1 , . . , 𝐵𝑛 un système complet d’évènements de probabilités toutes non
nulles. Pour tout évènement 𝐴 tel que 𝑃 (𝐴) > 0 , On a
𝑃(𝐴|𝐵𝑖 )𝑃(𝐵𝑖 )
𝑃 (𝐵𝑖 |𝐴 ) =
𝑃 (𝐴 )
Exemple 1 : Trois lignes de fabrication 𝐴,𝐵,𝐶 fabriquent des vis pour respectivement 30%, 30%
,40% de la production. La ligne A fabrique 10% de vis défectueuses, la ligne 𝐵 9% et la ligne 𝐶
seulement 6%. On prend une vis au hasard dans la population.
Soient les évènements : 𝑉 : la vis choisie est défectueuse
𝑉𝐴 : la vis vienne de la ligne A
𝑉𝐵 : la vis vienne de la ligne B
𝑉𝐶 : la vis vienne de la ligne C
La probabilité que la vis choisie est défectueuse est 𝑃 (𝑉 )
𝑃 (𝑉 ) = 𝑃(𝑉𝐴 )𝑃(𝑉 |𝑉𝐴 ) + 𝑃(𝑉𝐵 )𝑃(𝑉|𝑉𝐵 ) + 𝑃(𝑉𝐶 )𝑃(𝑉|𝑉𝐶 )
= 0.3 × 0.1 + 0.3 × 0.09 + 0.4 × 0.06 = 0.081
Si la vis choisie est défectueuse, la probabilité qu’elle vienne de la ligne 𝐴 est
2
𝑃(𝑉𝐴 )𝑃(𝑉|𝑉𝐴 ) 0.3 × 0.1
𝑃(𝑉𝐴 |V) = = = 0.37
𝑃(𝑉) 0.081
1-1-3 Indépendance
Deux évènements 𝐴 et 𝐵 sont indépendants si et seulement si 𝑃 (𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵)
Des évènements 𝐴1 , . . 𝐴𝑛 sont mutuellement indépendants si 𝑃(𝐴1 ∩ 𝐴2 ∩. .∩ 𝐴𝑛 ) =
𝑃(𝐴1 )𝑃(𝐴2 ). . 𝑃(𝐴𝑛 )
Si 𝐴1 , . . 𝐴𝑛 sont mutuellement indépendants, alors ils sont indépendants deux à deux, la
réciproque est fausse.
1-2- Variables aléatoires
Définition 3 Soit(Ω, ℱ, 𝑃) un espace de probabilité .On appelle variable aléatoire réelle (v.a.r)
toute application de Ω dans ℝ telle que pour tout intervalle 𝐼 deℝ, 𝑋 −1 (𝐼 )est un évènement de
ℱ.
On appelle loi de probabilité de 𝑋, notée 𝑃𝑋 , l’application qui a toute partie 𝐴 de ℝ associe
𝑃𝑋 (𝐴) = 𝑃(𝑋 ∈ 𝐴) = 𝑃({𝑤 ∈ Ω: X(𝑤) ∈ 𝐴})
La fonction de répartition d’une variable aléatoire réelle 𝑋 est la fonction 𝐹𝑋 de ℝ dans [0,1]
définie par
𝐹𝑋 (𝑥) = 𝑃(𝑋 ≤ 𝑥 )
Propriétés :
i- lim 𝐹𝑋 (𝑥 ) = 0 , lim 𝐹𝑋 (𝑥 ) = 1
𝑥⟶−∞ 𝑥⟶+∞
ii- La fonction 𝐹𝑋 est croissante et continue à droite
iii- Pour tous réels 𝑎 et 𝑏, 𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎)
1-2-1 Variable aléatoire discrète
Définition 4 Une variable aléatoire 𝑋 à valeurs dans un ensemble 𝑋 (Ω) discret est appelée
variable aléatoire discrète. Dans ce cas, la loi de 𝑋 est déterminée par
∀𝑥 ∈ 𝑋 (Ω) , 𝑃𝑋 (𝑥 ) = 𝑃 (𝑋 = 𝑥 ) avec 𝑃 (𝑋 = 𝑥 ) ≥ 0 et ∑𝑥∈𝑋(Ω) 𝑃(𝑋 = 𝑥 )= 1
La fonction de répartition de 𝑋 est définie par 𝐹𝑋 (𝑥) = ∑𝑘≤𝑥 𝑃 (𝑋 = 𝑘 )
3
1-2-2 Variable aléatoire continue
Définition 5 Une variable aléatoire réelle 𝑋 est dite continue si 𝑋(Ω) est un intervalle ou réunion
d’intervalle de ℝ. 𝑋 est dite absolument continue si de plus il existe une fonction 𝑓𝑋 appelée
densité, définie sur ℝ telle que :
i- 𝑓𝑋 (𝑥 ) ≥ 0 pour tout 𝑥 ∈ ℝ
ii- 𝑓𝑋 (𝑥) est continue sur ℝ sauf peut être sur un nombre fini de points
+∞ +∞
iii- ∫−∞ 𝑓𝑋 (𝑥 )𝑑𝑥 converge et∫−∞ 𝑓𝑋 (𝑥)𝑑𝑥 = 1
𝑥
iv- 𝐹𝑋 (𝑥) = ∫−∞ 𝑓𝑋 (𝑡)𝑑𝑡
La fonction 𝐹𝑋 est continue, elle est dérivable aux points de continuité de 𝑓𝑋 avec 𝑓𝑋 (𝑥 ) = 𝐹𝑋′ (𝑥).
Propriétés
i- Pour tout 𝑎 ∈ ℝ , 𝑃 (𝑋 = 𝑎) = 0
𝑏
ii-Pour tous réels 𝑎 et 𝑏 tels que 𝑎 < 𝑏 on a 𝑃 (𝑎 < 𝑋 < 𝑏) = 𝑃 (𝑎 ≤ 𝑋 ≤ 𝑏) = ∫𝑎 𝑓𝑋 (𝑡) 𝑑𝑡
1-2-3 Moments des variables aléatoires
1- Espérance mathématique
On appelle espérance mathématique de la variable aléatoire 𝑋 la valeur, si elle existe
𝐸 (𝑋) = ∑𝑥∈𝑋(Ω) 𝑥 𝑃 (𝑋 = 𝑥 ) si 𝑋 est discrète
+∞
𝐸 (𝑋) = ∫−∞ 𝑥𝑓𝑋 (𝑥)𝑑𝑥 si 𝑋 es continue
2- Moments
Le moment d’ordre (𝑟 ≥ 1) de 𝑋 est la quantité (si elle existe)
𝐸 (𝑋 𝑟 ) = ∑𝑥∈𝑋(Ω) 𝑥 𝑟 𝑃(𝑋 = 𝑥 ) si 𝑋 est discrète
+∞
𝐸 (𝑋 𝑟 ) = ∫−∞ 𝑥 𝑟 𝑓𝑋 (𝑥 )𝑑𝑥 si 𝑋 est continue
Le moment centré d’ordre (𝑟 ≥ 1) est
𝑟
𝐸(𝑋 − 𝐸 (𝑋)) = ∑𝑥∈𝑋(Ω)(𝑥 − 𝐸(𝑋))𝑟 𝑃(𝑋 = 𝑥 ) si 𝑋 est discrète
𝑟 +∞ 𝑟
𝐸(𝑋 − 𝐸 (𝑋)) = ∫−∞ (𝑥 − 𝐸 (𝑋)) 𝑓𝑋 (𝑥)𝑑𝑥 si 𝑋 est continue
3- Variance et écart-type
La variance de 𝑋 est la valeur (si elle existe ) notée 𝑉𝑎𝑟(𝑋) définie par
2
Var(𝑋) = 𝐸(𝑋 − 𝐸 (𝑋)) = 𝐸 (𝑋 2 ) − 𝐸 2 (𝑋)
L’écart-type , notée 𝜎𝑋 est la racine carrée de la variance de 𝑋
4
Propriétés
i- Pour tout 𝛼, 𝛽 ∈ ℝ , 𝐸 [𝛼𝑋 + 𝛽 ] = 𝛼𝐸 (𝑋) + 𝛽
ii- Pour tout 𝑎, 𝑏 ∈ ℝ , 𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝑎2 𝑉𝑎𝑟(𝑋)
1-2-4 Quelques lois usuelles
Dans les tableaux ci- après sont présentées les propriétés de quelques lois discrètes et continues
1- Lois discrètes
Lois de𝑋 𝑃(𝑋 = 𝑘) Esperance Variance
Bernoulli 𝔅(𝑝) 𝑝 si 𝑘 = 1,1 − 𝑝 si 𝑘 = 0 , 𝑝 𝑝(1-𝑝)
Binomiale 𝔅(𝑛, 𝑝) 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 ,𝑘 ∈ 𝑛𝑝 𝑛𝑝(1 − 𝑝)
{0, . . 𝑛},
Poisson 𝒫(𝜆) 𝜆𝑘 λ λ
𝑒 −𝜆 , 𝑘 ∈ ℕ , 𝜆 > 0
𝑘!
Géométrique Ǥ (𝑝) (1 − 𝑝 )𝑘 𝑝 , 𝑘 ∈ ℕ 1−𝑝 1−𝑝
𝑝 𝑝2
Géométrique Ǥ*(𝑝) (1 − 𝑝)𝑘−1 𝑝 , 𝑘 ∈ ℕ∗ 1 1−𝑝
2- 𝑝 𝑝2
Lois Continues
Lois Densité Esperance Variance
Uniforme 1 𝑎+𝑏 (𝑎 − 𝑏 )2
U ([]) 𝑓(𝑥) = {𝑏 − 𝑎 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 2 12
0 𝑠𝑖𝑛𝑜𝑛
Exponentielle −𝜆𝑥 1 1
𝑓(𝑥) = { 𝜆 𝑒 𝑠𝑖 𝑥 ≥ 0
ℰ(𝜆) 0 𝑠𝑖 𝑥 < 0 𝜆 𝜆2
(𝑥−𝑚) 2
Normale 1 − m 𝜎2
𝑓(𝑥) = 𝑒 2𝜎2 ,𝑥 ∈ ℝ
N(𝜎 2 ) 𝜎√2𝜋
,
Gamma 𝜆𝑎 𝑎−1 −𝜆𝑥 𝑎 𝑎
𝑓 (𝑥 ) = 𝑥 𝑒 , 𝑥 > 0, 𝑎 > 0, 𝜆 𝜆2
Γ(𝜆, 𝑎) Γ(𝑎 )
𝜆>0
bêta 1 𝑎 𝑎𝑏
𝑓 (𝑥 ) = 𝑥 𝑎−1 (1 − 𝑥 )𝑏−1 , 𝑎+𝑏
Β(𝑎, 𝑏) Β(𝑎, 𝑏) (𝑎 + 𝑏 + 1)(𝑎 + 𝑏)2
0<𝑥<1
5
+∞
Fonction Gamma : Γ(𝑥 ) = ∫0 𝑥 𝑎−1 𝑒 −𝑥 𝑑𝑥, 𝑥 >0,
1
Γ(𝑎 ) = (𝑎 − 1 ) Γ(𝑎 − 1 ) ∀𝑎 > 0, Γ(𝑛) = (𝑛 − 1)! ∀𝑛 ∈ ℕ∗ , Γ (2) = √𝜋 , Γ(1 ) = 1
Γ(𝑎)Γ(𝑏)
Fonction bêta : Β(𝑎, 𝑏) = , 𝑎>0 , 𝑏>0
Γ(𝑎+𝑏)
1-2-5 Fonctions génératrices
Définition 6 On appelle fonction génératrice de la variable aléatoire discrète 𝑋 à valeurs dans
ℕ, la série entière
∞
𝑋)
𝐺𝑋 (𝑠) = 𝐸 (𝑠 = ∑ 𝑠 𝑘 𝑃(𝑋 = 𝑘) , 𝑠 ∈ [−1,1]
𝑘=0
Théorème 1 Soit 𝑋 à valeurs dans ℕ , alors 𝑋 admet une espérance si et seulement si 𝐺𝑋′ = 𝐸 (𝑋)
𝑋 admet une variance si et seulement si 𝐺𝑋 est deux fois dérivables en 1.
2
𝑉𝑎𝑟(𝑋) = 𝐺𝑋′′ (1) + 𝐺𝑋′ (1) − (𝐺𝑋′ (1))
- Si 𝑋 et 𝑌 ont la même fonction génératrice, elles ont même loi.
- Si 𝑋 et 𝑌 sont deux v.a indépendantes, 𝐺𝑋+𝑌 (𝑠) = 𝐺𝑋 (𝑠)𝐺𝑌 (𝑠)
Exemple 2 Soit 𝑋 une variable aléatoire de loi binomiale 𝔅(𝑛, 𝑝). On a
𝑛 𝑛
𝑛
𝐺𝑋 (𝑠) = ∑ 𝑠 𝑘 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 = ∑ 𝐶𝑛𝑘 (𝑝𝑠)𝑘 (1 − 𝑝)𝑛−𝑘 = (𝑝𝑠 + (1 − 𝑝))
𝑘=0 𝑘=0
𝑛−1
D’où 𝐺𝑋′ (𝑠) = 𝑛𝑝(𝑝𝑠 + (1 − 𝑝)) donc 𝐸 (𝑋) = 𝐺𝑋′ (1) = 𝑛𝑝, par ailleurs
𝑛−2
𝐺𝑋′′ (𝑠) = 𝑛(𝑛 − 1)𝑝2 (𝑝𝑠 + (1 − 𝑝)) donc 𝐺𝑋′′ (1) = 𝑛(𝑛 − 1)𝑝2
D’où 𝑉𝑎𝑟(𝑋) = 𝑛(𝑛 − 1)𝑝2 + 𝑛𝑝 − (𝑛𝑝)2 = −𝑛𝑝2 + 𝑛𝑝 = 𝑛𝑝(1 − 𝑝)
Définition7 La fonction génératrice des moments de la variable aléatoire 𝑋 est définie par
𝑀𝑋 (𝑡) = 𝐸 (𝑒 𝑡𝑋 )
Le moment d’ordre 𝑟 de 𝑋 est donnée par :
(𝑟) (𝑟)
𝐸 [𝑋 𝑟 ] = 𝑀𝑋 (0) où 𝑀𝑋 (0) est la dérivée d’ordre 𝑟 de 𝑀𝑋
Exemple 3 Soit 𝑋 une variable aléatoire de loi Γ(𝜆, 𝑎). On a
6
+∞ +∞
𝜆𝑎 𝑎−1 −𝜆𝑥 𝜆𝑎
𝑀𝑋 (𝑡) = ∫ 𝑒 𝑡𝑥 𝑥 𝑒 𝑑𝑥 = ∫ 𝑥 𝑎−1 𝑒 −𝑥(𝜆−𝑡) 𝑑𝑥
Γ(𝑎 ) Γ(𝑎 )
0 0
En posant 𝑦 = 𝑥(𝜆 − 𝑡) , on obtient
+∞ +∞
𝜆𝑎 𝑦 𝑎−1 1 −𝑦
𝜆 𝑎 1
𝑀𝑋 (𝑡) = ∫ ( ) 𝑒 𝑑𝑦 = ( ) ∫ 𝑦 𝑎−1 𝑒 −𝑦 𝑑𝑦
Γ(𝑎 ) 𝜆−𝑡 𝜆−𝑡 𝜆 − 𝑡 Γ(𝑎 )
0 0
+∞ 𝜆 𝑎
Comme ∫0 𝑦 𝑎−1 𝑒 −𝑦 𝑑𝑦 = Γ(𝑎) on obtient 𝑀𝑋 (𝑡) = (𝜆−𝑡 ) pour 𝑡 < 𝜆
Calculons maintenant 𝐸 (𝑋) et 𝑉𝑎𝑟(𝑋) en utilisant les premières dérivées de 𝑀𝑋 (𝑡)
𝜆 𝑎−1 𝜆 𝒂
On a 𝑀𝑋′ (𝑡) = 𝑎 (𝜆−𝑡 ) (𝜆−𝑡)2
donc 𝐸 (𝑋) = 𝑀𝑋′ (0) = 𝝀
𝜆 𝑎−2 𝜆2 𝜆 𝑎−1 2𝜆 𝑎(𝑎−1) 2𝑎
et 𝑀𝑋′′ (𝑡) = 𝑎(𝑎 − 1) (𝜆−𝑡 ) (𝜆−𝑡) 4
+ 𝑎 (𝜆−𝑡 ) (𝜆−𝑡) 3
donc 𝑀𝑋′′ (0) = + 𝜆2
𝜆2
2 𝑎
Finalement 𝑉𝑎𝑟(𝑋) = 𝑀𝑋′′ (0) − (𝑀𝑋′ (0)) = 𝜆2
1-3 Couples aléatoires
1-3-1- Couple de variables aléatoires discrètes
La loi d’un couple de v.a discrètes (𝑋, 𝑌) est définie par l’ensemble des valeurs possibles
(𝑋, 𝑌)(Ω) = {(𝑥, 𝑦), 𝑥 ∈ 𝑋(Ω), 𝑦 ∈ 𝑌(Ω)} et par les probabilités associées :
𝑃𝑋,𝑌 (𝑥, 𝑦) = 𝑃 (𝑋 = 𝑥, 𝑌 = 𝑦)avec ∑𝑥∈𝑋(Ω) ∑𝑦∈𝑌(Ω) 𝑃𝑋,𝑌 (𝑥, 𝑦) = 1
1- Lois marginales
Les lois marginales sont les lois de chacune des variables du couple (𝑋, 𝑌). Elles sont définies par
𝑃(𝑋 = 𝑥 ) = ∑𝑦∈𝑌(Ω) 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦 ) et 𝑃(𝑌 = 𝑦) = ∑𝑥∈𝑋(Ω) 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦 )
Les variables aléatoires 𝑋 et 𝑌 sont indépendantes si et seulement si
∀ (𝑥, 𝑦) ∈ 𝑋 (Ω) × 𝑌 (Ω) , 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑃(𝑋 = 𝑥 )𝑃(𝑌 = 𝑦)
2- Moments associés à un couple discret
Soit ℎ : ℝ2 ⟶ ℝ une application continue, elle définie une v.a réelle. L’espérance
mathématique de ℎ(𝑋, 𝑌) est définie par
𝐸(ℎ (𝑋, 𝑌)) = ∑ ∑ ℎ(𝑥, 𝑦)𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑥∈𝑋(Ω) 𝑦∈𝑌(Ω)
Dans le cas oùℎ(𝑋, 𝑌) = (𝑋 − 𝐸 (𝑋))(𝑌 − 𝐸 (𝑌)) on définit la covariance de 𝑋 et 𝑌 par
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 ((𝑋 − 𝐸 (𝑋))(𝑌 − 𝐸 (𝑌))) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)𝐸 (𝑌)
7
Où
𝐸 (𝑋𝑌) = ∑ ∑ 𝑥𝑦 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑥∈𝑋(Ω) 𝑦∈𝑌(Ω)
La variance et la covariance sont reliées par l’égalité :
𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) + 2𝐶𝑂𝑉 (𝑋, 𝑌)
Propriétés
i- 𝐶𝑜𝑣(𝑋, 𝑋) = 𝑉𝑎𝑟(𝑋) et 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐶𝑜𝑣(𝑌, 𝑋)
ii- Si 𝑋 et 𝑌 sont indépendantes alors 𝐶𝑜𝑣(𝑋, 𝑌) = 0. La réciproque est fausse.
iii- Si 𝑋 et 𝑌 sont indépendantes alors 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)
3- Somme de deux variables aléatoires discrètes
Soient 𝑋 et 𝑌 des variables aléatoiresdiscrè[Link] loi de 𝑆 = 𝑋 + 𝑌 est définie par
∀𝑠 ∈ (𝑋 + 𝑌)(Ω) , 𝑃(𝑋 + 𝑌 = 𝑠) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑠 − 𝑥 )
𝑠=𝑥+𝑦 𝑥∈𝑋(Ω)
Si 𝑋 et 𝑌 sont indépendantes alors
𝑃(𝑋 + 𝑌 = 𝑠) = ∑ 𝑃(𝑋 = 𝑥)𝑃(𝑌 = 𝑠 − 𝑥 )
𝑥∈𝑋(Ω)
Exemple 4 Soit 𝑋 et 𝑌 deux v.a indépendantes, de lois respectives 𝒫(𝜆1 ) et 𝒫(𝜆2 ). On a
𝒔
𝑃(𝑋 + 𝑌 = 𝑠) = ∑ 𝑃(𝑋 = 𝑥)𝑃(𝑌 = 𝑠 − 𝑥 )
𝒙=𝟎
𝒔 𝑠
𝜆1𝑥 𝜆𝑠−𝑥
2 𝑒 −(𝜆1 +𝜆2 )
𝑃 (𝑋 + 𝑌 = 𝑠) = ∑ 𝑒 −𝜆1 𝑒 −𝜆2 = ∑ 𝐶𝑠𝑥 𝜆1𝑥 𝜆𝑠−𝑥
2
𝑥! (𝑠 − 𝑥 )! 𝑠!
𝒙=𝟎 𝑥=0
𝑒 −(𝜆1 +𝜆2)
En utilisant la formule du binôme, on trouve𝑃(𝑋 + 𝑌 = 𝑠) = (𝜆1 + 𝜆2 )𝑠 , 𝑠 ≥ 0
𝑠!
D’où 𝑋 + 𝑌 ↪ 𝒫(𝜆1 + 𝜆2 ). Ce résultat se généralise à la somme de n lois de Poisson
indépendantes.
1-3-2 Couple de variables aléatoires continues
Si 𝑋et 𝑌sont deux v.a réelles continues, La loi du couple(𝑋, 𝑌) est déterminée par sa fonction de
répartition𝐹𝑋,𝑌 . Si cette fonction est deux fois dérivables par rapport aux deux variables, alors la
loi de (𝑋, 𝑌) est dite absolument continue, de densité 𝑓𝑋,𝑌 définie par :
8
𝜕 2 𝐹 (𝑥, 𝑦)
𝑓 (𝑥, 𝑦) =
𝜕𝑥𝜕𝑦
𝑥 𝑦
et 𝐹(𝑥, 𝑦) = ∫−∞ ∫−∞ 𝑓 (𝑢, 𝑣) 𝑑𝑢𝑑𝑣
+∞ +∞
Vérifiant : pour tout (𝑥, 𝑦) ∈ ℝ2 𝑓 (𝑥, 𝑦) ≥ 0 et∫−∞ ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1
1- Lois marginales
Les densités marginales de 𝑋 𝑒𝑡 𝑌 sont définies par
+∞ +∞
𝑓𝑋 (𝑥 ) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑦 et 𝑓𝑌 (𝑦) = ∫−∞ 𝑓 (𝑥, 𝑦)𝑑𝑥
Deux variables aléatoires absolument continues 𝑋 𝑒𝑡 𝑌 sont indépendantes si et seulement si :
∀(𝑥, 𝑦) ∈ ℝ2 , 𝑓(𝑥, 𝑦 ) = 𝑓𝑋 (𝑥 )𝑓𝑌 (𝑦)
2- Moments associés à un couple continu
Soit ℎ : ℝ2 ⟶ ℝ une application continue , l’espérance mathématique de ℎ(𝑋, 𝑌) est définie
par
+∞ +∞
𝐸(ℎ(𝑋, 𝑌)) = ∫ ∫ ℎ(𝑥, 𝑦)𝑓 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞
La covariance de 𝑋 et 𝑌 est définie par
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 ((𝑋 − 𝐸 (𝑋))(𝑌 − 𝐸 (𝑌))) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)𝐸 (𝑌)
+∞ +∞
Où ; 𝐸 (𝑋𝑌) = ∫−∞ ∫−∞ 𝑥𝑦𝑓 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
Les propriétés de la variance et de la covariance sont identiques au cas discret
3- Somme de deux variables aléatoires continues
Soit (𝑋, 𝑌) un couple de v .a absolument continues. La variable 𝑍 = 𝑋 + 𝑌 est une v.a
absolument continue de densité
+∞
𝑔𝑍 (𝑧) = ∫ 𝑓 (𝑥, 𝑧 − 𝑥 ) 𝑑𝑥
−∞
Si 𝑋 et 𝑌 sont indépendantes alors
+∞
𝑔𝑍 (𝑧) = ∫ 𝑓𝑋 (𝑥 )𝑓𝑌 (𝑧 − 𝑥 ) 𝑑𝑥
−∞
La fonction 𝑔𝑍 est appelée le produit de convolution de 𝑓𝑋 et 𝑓𝑌
9
Exemple 5 Soit 𝑋 et 𝑌 deux v.a indépendantes de même loi exponentielle de paramètre 𝜆
Le support de la v.a 𝑍 = 𝑋 + 𝑌 est ℝ+ , soit 𝑧 ≥ 0 . La densité de 𝑍 est
2 −𝜆𝑧
𝑔𝑍 (𝑧) = ∫0 𝑓𝑋 (𝑥) 𝑓𝑌 (𝑧 − 𝑥 )𝑑𝑥 = 𝜆2 ∫0 𝑒 −𝜆𝑥 𝑒 −𝜆(𝑧−𝑥) 𝑑𝑥 = 𝜆2 ∫0 𝑒 −𝜆𝑧 𝑑𝑥={𝜆 𝑧𝑒 𝑠𝑖 𝑧 > 0
𝑧 𝑧 𝑧
0 𝑠𝑖𝑛𝑜𝑛
D’où 𝑋 + 𝑌 ↪ Γ(2, 𝜆) . Ce résultat se généralise à la somme de n variables aléatoires
exponentielles indépendantes .
1-4- Conditionnement
1- 4-1 Lois conditionnelles
Définition 8 Soit (𝑋, 𝑌) un couple de variables aléatoires discrètes, et soit 𝑥 ∈ 𝑋(Ω) tel que
𝑃(𝑋 = 𝑥 ) ≠ 0 . La loi conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est définie par :
𝑃 (𝑋 = 𝑥, 𝑌 = 𝑦)
𝑃(𝑌 = 𝑦/𝑋 = 𝑥 ) =
𝑃 (𝑋 = 𝑥 )
Définition 9 Soit (𝑋, 𝑌) un couple de v.a absolument continues . Pour tout 𝑥 ∈ ℝ tel
( )
que 𝑓𝑋 𝑥 ≠ 0, la loi conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est donnée par
𝑓(𝑥, 𝑦)
𝑓𝑌|𝑋 (𝑦|𝑥 ) = 𝑓(𝑦|𝑥) =
𝑓𝑋 (𝑥)
1-4-2 Espérances conditionnelles
1- Cas discret
Soit (𝑋, 𝑌) un couple aléatoire discret. L’espérance conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est
définie par
∀𝑥 ∈ 𝑋 (Ω) , 𝐸 (𝑌|𝑋 = 𝑥 ) = ∑ 𝑦 𝑃(𝑌 = 𝑦⁄𝑋 = 𝑥 )
𝑦∈𝑌(Ω)
Théorème 2 (Théorème de l’espérance totale )
Soit 𝑋 et 𝑌 deux v.a.r. discrètes définies sur le même espace telle que 𝐸 (|𝑌|) < ∞. Alors la v.a.r.
discrète 𝐸 (𝑌|𝑋) admet une espérance et
𝐸(𝐸 (𝑌|𝑋)) = ∑ 𝐸 (𝑌|𝑋 = 𝑥 ) 𝑃(𝑋 = 𝑥 ) = 𝐸 (𝑌)
𝑥∈𝑋(Ω)
10
Exemple 6 Soit(𝑋, 𝑌) un couple de variables aléatoires dont la loi est définie par le tableau
suivant
𝑋∖𝑌 0 1 Loi de 𝑋
0 2/7 2/7 4/7
1 2/7 1/7 3/7
Loi de 𝑌 4/7 3/7 1
.
2
Les v.a 𝑋 et 𝑌 ne sont pas indépendantes puisque par exemple, 𝑃(𝑋 = 0, 𝑌 = 1) = 7 alors
12 2
que 𝑃 (𝑋 = 0)𝑃(𝑌 = 1) = 49 ≠ 7
On a
4 3 3 4 3 3
𝐸 (𝑋) = ∑1𝑥=0 𝑥𝑃(𝑋 = 𝑥 ) = 0 × 7 + 1 × 7 = 7 𝑒𝑡 𝐸 (𝑌) = ∑1𝑦=0 𝑦𝑃(𝑌 = 𝑦) = 0 × 7 + 1 × 7 = 7,
1 1
2 2 2 1
𝐸 (𝑋𝑌) = ∑ ∑ 𝑥𝑦𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = (0 × × 0) + (0 × × 1) + (1 × × 0) + (1 × × 1)
7 7 7 7
𝑥=0 𝑦=0
1
=
7
1 9 2
D’où 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)𝐸 (𝑌) = − 49 = − 49
7
𝑃(𝑋=0 , 𝑌=𝑦)
La probabilité conditionnelle de 𝑌 sachant 𝑋 = 0 est 𝑃(𝑌 = 𝑦|𝑋 = 0) = ce qui
𝑃(𝑋=0)
conduit au tableau suivant :
𝑦 0 1
𝑃(𝑌 = 𝑦|𝑋 = 0) 2/7 2/7
= 1/2 = 1/2
4/7 4/7
1 1 1
On calcule 𝐸 (𝑌|𝑋 = 0) = ∑1𝑦=0 𝑦𝑃(𝑌 = 𝑦|𝑋 = 0) = 0 × 2 + 1 × 2 = 2
𝑃(𝑋=1, 𝑌=𝑦)
De la même manière on calcule 𝑃 (𝑌 = 𝑦|𝑋 = 1) =
𝑃(𝑋=1)
𝑦 0 1
𝑃(𝑌 = 𝑦|𝑋 = 1) 2/7 1/7
= 2/3 = 1/3
3/7 3/7
1
on obtient 𝐸 (𝑌|𝑋 = 1) = ∑1𝑦=0 𝑦𝑃(𝑌 = 𝑦|𝑋 = 1) = 3 et on en déduit la loi de 𝐸 (𝑌|𝑋)
𝐸 (𝑌|𝑋) 𝐸 (𝑌|𝑋 = 0) =1/2 𝐸 (𝑌|𝑋 = 1) =1/3
𝑃(𝑋 = 𝑥 ) 4/7 3/7
1 4 1 3 3
et puis 𝐸(𝐸 (𝑌|𝑋)) = 2 × 7 + 3 × 7 = 7 = 𝐸 (𝑌)
11
2- Cas absolument continu
Soit (𝑋, 𝑌) un couple aléatoire absolument continu. L’espérance conditionnelle de Y sachant X =
x est définie par
+∞
𝐸 (𝑌|𝑋 = 𝑥 ) = ∫ 𝑦 𝑓(𝑦|𝑥)𝑑𝑦
−∞
Théoreme3 Soit 𝑋 et 𝑌 deux v.a.r. absolument continues définies sur le même espace telles que
𝐸 (|𝑌|) < ∞. Alors la v.a.r. continue 𝐸 (𝑌|𝑋) admet une espérance et
+∞
𝐸(𝐸 (𝑌|𝑋)) = ∫ 𝐸 (𝑌|𝑋 = 𝑥 ) 𝑓𝑋 (𝑥 )𝑑𝑥 = 𝐸 (𝑌)
−∞
Exemple 7 Soit un couple aléatoire (𝑋, 𝑌) de densité
𝑒 −𝑥−𝑦 𝑠𝑖 𝑥 > 0 , 𝑦 > 0
𝑓 (𝑥, 𝑦) = {
0 𝑠𝑖𝑛𝑜𝑛
Densités marginales de 𝑋 et de 𝑌 :
+∞ +∞
𝑓(𝑥 ) = ∫0 𝑓(𝑥, 𝑦)𝑑𝑦 = ∫0 𝑒 −𝑥−𝑦 𝑑𝑦 = 𝑒 −𝑥 si 𝑥 > 0 et nulle ailleurs
+∞ ∞
𝑓(𝑦) = ∫0 𝑓 (𝑥, 𝑦)𝑑𝑥 = ∫0 𝑒 −𝑥−𝑦 𝑑𝑥 = 𝑒 −𝑦 si 𝑦 > 0 et nulle ailleurs
Les v.a 𝑋 et 𝑌 sont indépendantes puisque 𝑓 (𝑥, 𝑦) = 𝑓𝑋 (𝑥 )𝑓𝑌 (𝑦). On a
+∞ +∞
𝐸 (𝑋) = ∫0 𝑥𝑓𝑋 (𝑥 )𝑑𝑥 = ∫0 𝑥𝑒 −𝑥 𝑑𝑥 = 1 ,
+∞ +∞
𝐸 (𝑌) = ∫0 𝑦𝑓𝑌 (𝑦)𝑑𝑦 = ∫0 𝑦𝑒 −𝑦 𝑑𝑦 = 1 et
+∞ +∞ +∞ +∞
𝐸 (𝑋𝑌) = ∫ ∫ 𝑥𝑦 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫ 𝑥𝑒 −𝑥 (∫ 𝑦𝑒 −𝑦 𝑑𝑦)𝑑𝑥 = 1
0 0 0 0
On obtient 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)(𝑌) = 0
L’espérance conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est
+∞ +∞ +∞
𝑓 (𝑥, 𝑦)
𝐸 (𝑌|𝑋 = 𝑥 ) = ∫ 𝑦𝑓(𝑦|𝑥 )𝑑𝑦 = ∫ 𝑦 𝑑𝑦 = ∫ 𝑦 𝑒 −𝑦 𝑑𝑦 = 1
𝑓𝑋 (𝑥 )
0 0 0
12
3- Propriétés des espérances conditionnelles
Soit (𝑋, 𝑌) un couple aléatoire. Soit 𝜙 , 𝜑 deux fonctions de ℝ dans ℝ et soit ℎ une fonction de
ℝ2 dans ℝ. Sous réserve d’intégrabilité des variables aléatoires, on a les propriétés suivantes :
i- Si 𝑋 et 𝑌 sont indépendantes, alors 𝐸 (𝜑(𝑌)|𝑋) = 𝐸 (𝜑(𝑌)). En particulier, 𝐸 (𝑌|𝑋) = 𝐸 (𝑌).
ii- On a 𝐸 (𝜑 (𝑋)|𝑋) = 𝜑(𝑋). En particulier on a 𝐸 (𝑋|𝑋) = 𝑋
∀𝑎 ∈ ℝ, ∀𝑏 ∈ ℝ,
𝐸 (𝑎𝜑(𝑋) + 𝑏𝜙 (𝑌) |𝑋) = 𝑎𝐸 (𝜑(𝑋)|𝑋) + 𝑏𝐸 (𝜙(𝑌)|𝑋) = 𝑎𝜑(𝑋) + 𝑏𝐸 (𝜙(𝑌)|𝑋)
𝐸 (ℎ(𝑋, 𝑌)|𝑋 = 𝑥 ) = 𝐸 (ℎ(𝑥, 𝑌)|𝑋 = 𝑥 )
𝐸(𝜑(𝑌)) = 𝐸 (𝐸 (𝜑(𝑌))|𝑋)
1-4-3 Variances conditionnelles
Soit (𝑋, 𝑌) un couple aléatoire .la variance conditionnelle de Y sachant X = x est donnée par
𝑉𝑎𝑟(𝑌|𝑋 = 𝑥) = 𝐸 (𝑌 2 |𝑋 = 𝑥 ) − 𝐸 2 (𝑌|𝑋 = 𝑥)
Notons que 𝑉𝑎𝑟(𝑌|𝑋) est une variable aléatoire donc on peut calculer son espérance et on a
𝑉𝑎𝑟(𝑌) = 𝐸 (𝑉𝑎𝑟(𝑌|𝑋)) + 𝑉𝑎𝑟(𝐸 (𝑌|𝑋))
13
14
15