0% ont trouvé ce document utile (0 vote)
57 vues16 pages

Cours de Proba 2 2 1

Transféré par

ayumihyesu2
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
57 vues16 pages

Cours de Proba 2 2 1

Transféré par

ayumihyesu2
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 1 Conditionnement

1-1 Rappels de probabilités conditionnelles


1-1-1 Evènements – Probabilité
Soit Ω l’ensemble des résultats possibles d’une expérience aléatoire. Un élément de Ω est
appelé “ réalisation “. Un ensemble 𝐴 ⊂ Ω est appelé “évènement“ . Si w ∈ Ω , le singleton {𝑤} est
un évènement élémentaire , Ω est l’évènement certain, ∅ est l’évènement impossible.
- Si 𝐴 et 𝐵 sont deux évènements, 𝐴̅ est l’évènement contraire.
- Deux évènements 𝐴 et 𝐵 sont incompatibles ou disjoints si et seulement si 𝐴⋂𝐵 = ∅ .
- Une suite (𝐴𝑖 )1≤𝑖≤𝑛 est un système complet d’évènements si ∀𝑖 ≠ 𝑗 , 𝐴𝑖 ∩ 𝐴𝑗 = ∅ et
⋃𝑛𝑖=1 𝐴𝑖 = Ω
Un sous ensemble ℱ de Ω est appelé tribu ou 𝜎- algèbre sur Ω si
i- ∅ et Ω ∈ ℱ
ii- Si 𝐴 ∈ ℱ alors 𝐴̅ ∈ ℱ
iii- Si (𝐴𝑖 )𝑖≥1 est une suite d’évènements de ℱ alors ⋃∞
𝑖=1 𝐴𝑖 ∈ ℱ

Définition 1 Probabilité
On appelle probabilité sur (Ω, ℱ ) une application 𝑃 de ℱ dans [0,1] vérifiant les deux propriétés
suivantes :
i- 𝑃 ( Ω) = 1
ii- Pour toute suite (𝐴𝑖 )𝑖≥1 d’évènements de ℱ deux à deux incompatibles on a

∞ ∞

𝑃 (⋃ 𝐴𝑖 ) = ∑ 𝐴𝑖
𝑖=1 𝑖=1

Le triplet (Ω, ℱ, 𝑃) est appelé espace de probabilité .


Propriétés :
i- 𝑃(∅) = 0
ii- 𝑃(𝐴̅) = 1 − 𝑃(𝐴)
iii- 𝑃(𝐴⋃𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)
iv- Si 𝐴 et 𝐵 sont incompatibles , alors 𝑃(𝐴⋃𝐵) = 𝑃 (𝐴) + 𝑃(𝐵)
v- Pour toute famille 𝐴1 , 𝐴2 , … , 𝐴𝑛 d’évènements deux à deux incompatibles
𝑃(𝐴1 ⋃𝐴2 ∪ … ∪ 𝐴𝑛 ) = 𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯ 𝑃(𝐴𝑛 )

Définition 2 Equiprobabilité et probabilité uniforme


SoitΩ un ensemble fini. On dit qu’il y a équiprobabilité lorsque les probabilités de tous les
évènements élémentaires sont égales. Dans ce cas, 𝑃 est la probabilité uniforme. S’il y a
équiprobabilité, pour tout évènement 𝐴 , on a

1
𝐶𝑎𝑟𝑑 𝐴 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
𝑃 (𝐴 ) = =
𝐶𝑎𝑟𝑑 Ω 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠

1-1-2 Probabilités conditionnelles


Soient 𝐴 et 𝐵 deux évènements tel que 𝑃(𝐵) > 0. La probabilité conditionnelle de 𝐴 sachant 𝐵
est
𝑃 (𝐴 ∩ 𝐵 )
𝑃 (𝐴|𝐵) =
𝑃(𝐵)
Propriétés pour trois évènements 𝐴 ,𝐵 et 𝐶, on a
i- 𝑃(𝐵̅/𝐴) = 1 − 𝑃(𝐵|𝐴)
ii- 𝑃(𝐴 ∪ 𝐵|𝐶 ) = 𝑃 (𝐴|𝐶 ) + 𝑃(𝐵|𝐶 ) − 𝑃(𝐴 ∩ 𝐵|𝐶 )
iii- Si 𝐴 et 𝐵 sont incompatibles alors 𝑃(𝐴 ∪ 𝐵|𝐶 ) = 𝑃 (𝐴|𝐶 ) + 𝑃(𝐵|𝐶 )

Formule des probabilités composées :

Soient 𝐴1 , . . , 𝐴𝑛 des évènements tel que 𝑃(𝐴1 ∩. .∩ 𝐴𝑛 ) ≠ 0 on a

𝑃(𝐴1 ∩ … ∩ 𝐴𝑛 ) = 𝑃(𝐴1 )𝑃(𝐴2 /𝐴1 )𝑃(𝐴3 |𝐴1 ∩ 𝐴2 ) … 𝑃(𝐴𝑛 |𝐴1 ∩ 𝐴2 . . 𝐴𝑛−1 ).


Formule des probabilités totales : Soient 𝐵1 , . . , 𝐵𝑛 un système complet d’évènements de
probabilités toutes non nulles. Pour tout évènement 𝐴 on a
𝑛

𝑃(𝐴) = ∑ 𝑃(𝐵𝑖 )𝑃(𝐴|𝐵𝑖 )


𝑖=1

Formule de Bayes : Soient 𝐵1 , . . , 𝐵𝑛 un système complet d’évènements de probabilités toutes non


nulles. Pour tout évènement 𝐴 tel que 𝑃 (𝐴) > 0 , On a
𝑃(𝐴|𝐵𝑖 )𝑃(𝐵𝑖 )
𝑃 (𝐵𝑖 |𝐴 ) =
𝑃 (𝐴 )
Exemple 1 : Trois lignes de fabrication 𝐴,𝐵,𝐶 fabriquent des vis pour respectivement 30%, 30%
,40% de la production. La ligne A fabrique 10% de vis défectueuses, la ligne 𝐵 9% et la ligne 𝐶
seulement 6%. On prend une vis au hasard dans la population.

Soient les évènements : 𝑉 : la vis choisie est défectueuse


𝑉𝐴 : la vis vienne de la ligne A
𝑉𝐵 : la vis vienne de la ligne B
𝑉𝐶 : la vis vienne de la ligne C
La probabilité que la vis choisie est défectueuse est 𝑃 (𝑉 )

𝑃 (𝑉 ) = 𝑃(𝑉𝐴 )𝑃(𝑉 |𝑉𝐴 ) + 𝑃(𝑉𝐵 )𝑃(𝑉|𝑉𝐵 ) + 𝑃(𝑉𝐶 )𝑃(𝑉|𝑉𝐶 )


= 0.3 × 0.1 + 0.3 × 0.09 + 0.4 × 0.06 = 0.081
Si la vis choisie est défectueuse, la probabilité qu’elle vienne de la ligne 𝐴 est
2
𝑃(𝑉𝐴 )𝑃(𝑉|𝑉𝐴 ) 0.3 × 0.1
𝑃(𝑉𝐴 |V) = = = 0.37
𝑃(𝑉) 0.081
1-1-3 Indépendance
Deux évènements 𝐴 et 𝐵 sont indépendants si et seulement si 𝑃 (𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵)

Des évènements 𝐴1 , . . 𝐴𝑛 sont mutuellement indépendants si 𝑃(𝐴1 ∩ 𝐴2 ∩. .∩ 𝐴𝑛 ) =


𝑃(𝐴1 )𝑃(𝐴2 ). . 𝑃(𝐴𝑛 )
Si 𝐴1 , . . 𝐴𝑛 sont mutuellement indépendants, alors ils sont indépendants deux à deux, la
réciproque est fausse.
1-2- Variables aléatoires

Définition 3 Soit(Ω, ℱ, 𝑃) un espace de probabilité .On appelle variable aléatoire réelle (v.a.r)
toute application de Ω dans ℝ telle que pour tout intervalle 𝐼 deℝ, 𝑋 −1 (𝐼 )est un évènement de
ℱ.
On appelle loi de probabilité de 𝑋, notée 𝑃𝑋 , l’application qui a toute partie 𝐴 de ℝ associe
𝑃𝑋 (𝐴) = 𝑃(𝑋 ∈ 𝐴) = 𝑃({𝑤 ∈ Ω: X(𝑤) ∈ 𝐴})
La fonction de répartition d’une variable aléatoire réelle 𝑋 est la fonction 𝐹𝑋 de ℝ dans [0,1]
définie par

𝐹𝑋 (𝑥) = 𝑃(𝑋 ≤ 𝑥 )

Propriétés :
i- lim 𝐹𝑋 (𝑥 ) = 0 , lim 𝐹𝑋 (𝑥 ) = 1
𝑥⟶−∞ 𝑥⟶+∞
ii- La fonction 𝐹𝑋 est croissante et continue à droite
iii- Pour tous réels 𝑎 et 𝑏, 𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎)

1-2-1 Variable aléatoire discrète

Définition 4 Une variable aléatoire 𝑋 à valeurs dans un ensemble 𝑋 (Ω) discret est appelée
variable aléatoire discrète. Dans ce cas, la loi de 𝑋 est déterminée par

∀𝑥 ∈ 𝑋 (Ω) , 𝑃𝑋 (𝑥 ) = 𝑃 (𝑋 = 𝑥 ) avec 𝑃 (𝑋 = 𝑥 ) ≥ 0 et ∑𝑥∈𝑋(Ω) 𝑃(𝑋 = 𝑥 )= 1

La fonction de répartition de 𝑋 est définie par 𝐹𝑋 (𝑥) = ∑𝑘≤𝑥 𝑃 (𝑋 = 𝑘 )

3
1-2-2 Variable aléatoire continue
Définition 5 Une variable aléatoire réelle 𝑋 est dite continue si 𝑋(Ω) est un intervalle ou réunion
d’intervalle de ℝ. 𝑋 est dite absolument continue si de plus il existe une fonction 𝑓𝑋 appelée
densité, définie sur ℝ telle que :
i- 𝑓𝑋 (𝑥 ) ≥ 0 pour tout 𝑥 ∈ ℝ
ii- 𝑓𝑋 (𝑥) est continue sur ℝ sauf peut être sur un nombre fini de points
+∞ +∞
iii- ∫−∞ 𝑓𝑋 (𝑥 )𝑑𝑥 converge et∫−∞ 𝑓𝑋 (𝑥)𝑑𝑥 = 1
𝑥
iv- 𝐹𝑋 (𝑥) = ∫−∞ 𝑓𝑋 (𝑡)𝑑𝑡

La fonction 𝐹𝑋 est continue, elle est dérivable aux points de continuité de 𝑓𝑋 avec 𝑓𝑋 (𝑥 ) = 𝐹𝑋′ (𝑥).

Propriétés

i- Pour tout 𝑎 ∈ ℝ , 𝑃 (𝑋 = 𝑎) = 0
𝑏
ii-Pour tous réels 𝑎 et 𝑏 tels que 𝑎 < 𝑏 on a 𝑃 (𝑎 < 𝑋 < 𝑏) = 𝑃 (𝑎 ≤ 𝑋 ≤ 𝑏) = ∫𝑎 𝑓𝑋 (𝑡) 𝑑𝑡

1-2-3 Moments des variables aléatoires


1- Espérance mathématique

On appelle espérance mathématique de la variable aléatoire 𝑋 la valeur, si elle existe


𝐸 (𝑋) = ∑𝑥∈𝑋(Ω) 𝑥 𝑃 (𝑋 = 𝑥 ) si 𝑋 est discrète
+∞
𝐸 (𝑋) = ∫−∞ 𝑥𝑓𝑋 (𝑥)𝑑𝑥 si 𝑋 es continue

2- Moments
Le moment d’ordre (𝑟 ≥ 1) de 𝑋 est la quantité (si elle existe)

𝐸 (𝑋 𝑟 ) = ∑𝑥∈𝑋(Ω) 𝑥 𝑟 𝑃(𝑋 = 𝑥 ) si 𝑋 est discrète


+∞
𝐸 (𝑋 𝑟 ) = ∫−∞ 𝑥 𝑟 𝑓𝑋 (𝑥 )𝑑𝑥 si 𝑋 est continue

Le moment centré d’ordre (𝑟 ≥ 1) est


𝑟
𝐸(𝑋 − 𝐸 (𝑋)) = ∑𝑥∈𝑋(Ω)(𝑥 − 𝐸(𝑋))𝑟 𝑃(𝑋 = 𝑥 ) si 𝑋 est discrète
𝑟 +∞ 𝑟
𝐸(𝑋 − 𝐸 (𝑋)) = ∫−∞ (𝑥 − 𝐸 (𝑋)) 𝑓𝑋 (𝑥)𝑑𝑥 si 𝑋 est continue

3- Variance et écart-type
La variance de 𝑋 est la valeur (si elle existe ) notée 𝑉𝑎𝑟(𝑋) définie par
2
Var(𝑋) = 𝐸(𝑋 − 𝐸 (𝑋)) = 𝐸 (𝑋 2 ) − 𝐸 2 (𝑋)

L’écart-type , notée 𝜎𝑋 est la racine carrée de la variance de 𝑋


4
Propriétés
i- Pour tout 𝛼, 𝛽 ∈ ℝ , 𝐸 [𝛼𝑋 + 𝛽 ] = 𝛼𝐸 (𝑋) + 𝛽
ii- Pour tout 𝑎, 𝑏 ∈ ℝ , 𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝑎2 𝑉𝑎𝑟(𝑋)

1-2-4 Quelques lois usuelles

Dans les tableaux ci- après sont présentées les propriétés de quelques lois discrètes et continues
1- Lois discrètes

Lois de𝑋 𝑃(𝑋 = 𝑘) Esperance Variance


Bernoulli 𝔅(𝑝) 𝑝 si 𝑘 = 1,1 − 𝑝 si 𝑘 = 0 , 𝑝 𝑝(1-𝑝)

Binomiale 𝔅(𝑛, 𝑝) 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 ,𝑘 ∈ 𝑛𝑝 𝑛𝑝(1 − 𝑝)


{0, . . 𝑛},

Poisson 𝒫(𝜆) 𝜆𝑘 λ λ
𝑒 −𝜆 , 𝑘 ∈ ℕ , 𝜆 > 0
𝑘!

Géométrique Ǥ (𝑝) (1 − 𝑝 )𝑘 𝑝 , 𝑘 ∈ ℕ 1−𝑝 1−𝑝


𝑝 𝑝2
Géométrique Ǥ*(𝑝) (1 − 𝑝)𝑘−1 𝑝 , 𝑘 ∈ ℕ∗ 1 1−𝑝
2- 𝑝 𝑝2

Lois Continues

Lois Densité Esperance Variance

Uniforme 1 𝑎+𝑏 (𝑎 − 𝑏 )2
U ([]) 𝑓(𝑥) = {𝑏 − 𝑎 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 2 12
0 𝑠𝑖𝑛𝑜𝑛
Exponentielle −𝜆𝑥 1 1
𝑓(𝑥) = { 𝜆 𝑒 𝑠𝑖 𝑥 ≥ 0
ℰ(𝜆) 0 𝑠𝑖 𝑥 < 0 𝜆 𝜆2
(𝑥−𝑚) 2
Normale 1 − m 𝜎2
𝑓(𝑥) = 𝑒 2𝜎2 ,𝑥 ∈ ℝ
N(𝜎 2 ) 𝜎√2𝜋
,
Gamma 𝜆𝑎 𝑎−1 −𝜆𝑥 𝑎 𝑎
𝑓 (𝑥 ) = 𝑥 𝑒 , 𝑥 > 0, 𝑎 > 0, 𝜆 𝜆2
Γ(𝜆, 𝑎) Γ(𝑎 )
𝜆>0

bêta 1 𝑎 𝑎𝑏
𝑓 (𝑥 ) = 𝑥 𝑎−1 (1 − 𝑥 )𝑏−1 , 𝑎+𝑏
Β(𝑎, 𝑏) Β(𝑎, 𝑏) (𝑎 + 𝑏 + 1)(𝑎 + 𝑏)2
0<𝑥<1

5
+∞
Fonction Gamma : Γ(𝑥 ) = ∫0 𝑥 𝑎−1 𝑒 −𝑥 𝑑𝑥, 𝑥 >0,
1
Γ(𝑎 ) = (𝑎 − 1 ) Γ(𝑎 − 1 ) ∀𝑎 > 0, Γ(𝑛) = (𝑛 − 1)! ∀𝑛 ∈ ℕ∗ , Γ (2) = √𝜋 , Γ(1 ) = 1
Γ(𝑎)Γ(𝑏)
Fonction bêta : Β(𝑎, 𝑏) = , 𝑎>0 , 𝑏>0
Γ(𝑎+𝑏)

1-2-5 Fonctions génératrices


Définition 6 On appelle fonction génératrice de la variable aléatoire discrète 𝑋 à valeurs dans
ℕ, la série entière

𝑋)
𝐺𝑋 (𝑠) = 𝐸 (𝑠 = ∑ 𝑠 𝑘 𝑃(𝑋 = 𝑘) , 𝑠 ∈ [−1,1]
𝑘=0

Théorème 1 Soit 𝑋 à valeurs dans ℕ , alors 𝑋 admet une espérance si et seulement si 𝐺𝑋′ = 𝐸 (𝑋)
𝑋 admet une variance si et seulement si 𝐺𝑋 est deux fois dérivables en 1.
2
𝑉𝑎𝑟(𝑋) = 𝐺𝑋′′ (1) + 𝐺𝑋′ (1) − (𝐺𝑋′ (1))

- Si 𝑋 et 𝑌 ont la même fonction génératrice, elles ont même loi.


- Si 𝑋 et 𝑌 sont deux v.a indépendantes, 𝐺𝑋+𝑌 (𝑠) = 𝐺𝑋 (𝑠)𝐺𝑌 (𝑠)

Exemple 2 Soit 𝑋 une variable aléatoire de loi binomiale 𝔅(𝑛, 𝑝). On a


𝑛 𝑛
𝑛
𝐺𝑋 (𝑠) = ∑ 𝑠 𝑘 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 = ∑ 𝐶𝑛𝑘 (𝑝𝑠)𝑘 (1 − 𝑝)𝑛−𝑘 = (𝑝𝑠 + (1 − 𝑝))
𝑘=0 𝑘=0
𝑛−1
D’où 𝐺𝑋′ (𝑠) = 𝑛𝑝(𝑝𝑠 + (1 − 𝑝)) donc 𝐸 (𝑋) = 𝐺𝑋′ (1) = 𝑛𝑝, par ailleurs
𝑛−2
𝐺𝑋′′ (𝑠) = 𝑛(𝑛 − 1)𝑝2 (𝑝𝑠 + (1 − 𝑝)) donc 𝐺𝑋′′ (1) = 𝑛(𝑛 − 1)𝑝2

D’où 𝑉𝑎𝑟(𝑋) = 𝑛(𝑛 − 1)𝑝2 + 𝑛𝑝 − (𝑛𝑝)2 = −𝑛𝑝2 + 𝑛𝑝 = 𝑛𝑝(1 − 𝑝)

Définition7 La fonction génératrice des moments de la variable aléatoire 𝑋 est définie par
𝑀𝑋 (𝑡) = 𝐸 (𝑒 𝑡𝑋 )
Le moment d’ordre 𝑟 de 𝑋 est donnée par :
(𝑟) (𝑟)
𝐸 [𝑋 𝑟 ] = 𝑀𝑋 (0) où 𝑀𝑋 (0) est la dérivée d’ordre 𝑟 de 𝑀𝑋

Exemple 3 Soit 𝑋 une variable aléatoire de loi Γ(𝜆, 𝑎). On a

6
+∞ +∞
𝜆𝑎 𝑎−1 −𝜆𝑥 𝜆𝑎
𝑀𝑋 (𝑡) = ∫ 𝑒 𝑡𝑥 𝑥 𝑒 𝑑𝑥 = ∫ 𝑥 𝑎−1 𝑒 −𝑥(𝜆−𝑡) 𝑑𝑥
Γ(𝑎 ) Γ(𝑎 )
0 0

En posant 𝑦 = 𝑥(𝜆 − 𝑡) , on obtient


+∞ +∞
𝜆𝑎 𝑦 𝑎−1 1 −𝑦
𝜆 𝑎 1
𝑀𝑋 (𝑡) = ∫ ( ) 𝑒 𝑑𝑦 = ( ) ∫ 𝑦 𝑎−1 𝑒 −𝑦 𝑑𝑦
Γ(𝑎 ) 𝜆−𝑡 𝜆−𝑡 𝜆 − 𝑡 Γ(𝑎 )
0 0

+∞ 𝜆 𝑎
Comme ∫0 𝑦 𝑎−1 𝑒 −𝑦 𝑑𝑦 = Γ(𝑎) on obtient 𝑀𝑋 (𝑡) = (𝜆−𝑡 ) pour 𝑡 < 𝜆

Calculons maintenant 𝐸 (𝑋) et 𝑉𝑎𝑟(𝑋) en utilisant les premières dérivées de 𝑀𝑋 (𝑡)


𝜆 𝑎−1 𝜆 𝒂
On a 𝑀𝑋′ (𝑡) = 𝑎 (𝜆−𝑡 ) (𝜆−𝑡)2
donc 𝐸 (𝑋) = 𝑀𝑋′ (0) = 𝝀

𝜆 𝑎−2 𝜆2 𝜆 𝑎−1 2𝜆 𝑎(𝑎−1) 2𝑎


et 𝑀𝑋′′ (𝑡) = 𝑎(𝑎 − 1) (𝜆−𝑡 ) (𝜆−𝑡) 4
+ 𝑎 (𝜆−𝑡 ) (𝜆−𝑡) 3
donc 𝑀𝑋′′ (0) = + 𝜆2
𝜆2

2 𝑎
Finalement 𝑉𝑎𝑟(𝑋) = 𝑀𝑋′′ (0) − (𝑀𝑋′ (0)) = 𝜆2

1-3 Couples aléatoires


1-3-1- Couple de variables aléatoires discrètes
La loi d’un couple de v.a discrètes (𝑋, 𝑌) est définie par l’ensemble des valeurs possibles
(𝑋, 𝑌)(Ω) = {(𝑥, 𝑦), 𝑥 ∈ 𝑋(Ω), 𝑦 ∈ 𝑌(Ω)} et par les probabilités associées :

𝑃𝑋,𝑌 (𝑥, 𝑦) = 𝑃 (𝑋 = 𝑥, 𝑌 = 𝑦)avec ∑𝑥∈𝑋(Ω) ∑𝑦∈𝑌(Ω) 𝑃𝑋,𝑌 (𝑥, 𝑦) = 1

1- Lois marginales

Les lois marginales sont les lois de chacune des variables du couple (𝑋, 𝑌). Elles sont définies par

𝑃(𝑋 = 𝑥 ) = ∑𝑦∈𝑌(Ω) 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦 ) et 𝑃(𝑌 = 𝑦) = ∑𝑥∈𝑋(Ω) 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦 )

Les variables aléatoires 𝑋 et 𝑌 sont indépendantes si et seulement si


∀ (𝑥, 𝑦) ∈ 𝑋 (Ω) × 𝑌 (Ω) , 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑃(𝑋 = 𝑥 )𝑃(𝑌 = 𝑦)
2- Moments associés à un couple discret
Soit ℎ : ℝ2 ⟶ ℝ une application continue, elle définie une v.a réelle. L’espérance
mathématique de ℎ(𝑋, 𝑌) est définie par

𝐸(ℎ (𝑋, 𝑌)) = ∑ ∑ ℎ(𝑥, 𝑦)𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)


𝑥∈𝑋(Ω) 𝑦∈𝑌(Ω)

Dans le cas oùℎ(𝑋, 𝑌) = (𝑋 − 𝐸 (𝑋))(𝑌 − 𝐸 (𝑌)) on définit la covariance de 𝑋 et 𝑌 par

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 ((𝑋 − 𝐸 (𝑋))(𝑌 − 𝐸 (𝑌))) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)𝐸 (𝑌)


7

𝐸 (𝑋𝑌) = ∑ ∑ 𝑥𝑦 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑥∈𝑋(Ω) 𝑦∈𝑌(Ω)

La variance et la covariance sont reliées par l’égalité :


𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) + 2𝐶𝑂𝑉 (𝑋, 𝑌)
Propriétés
i- 𝐶𝑜𝑣(𝑋, 𝑋) = 𝑉𝑎𝑟(𝑋) et 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐶𝑜𝑣(𝑌, 𝑋)
ii- Si 𝑋 et 𝑌 sont indépendantes alors 𝐶𝑜𝑣(𝑋, 𝑌) = 0. La réciproque est fausse.
iii- Si 𝑋 et 𝑌 sont indépendantes alors 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)

3- Somme de deux variables aléatoires discrètes


Soient 𝑋 et 𝑌 des variables aléatoiresdiscrè[Link] loi de 𝑆 = 𝑋 + 𝑌 est définie par

∀𝑠 ∈ (𝑋 + 𝑌)(Ω) , 𝑃(𝑋 + 𝑌 = 𝑠) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑠 − 𝑥 )


𝑠=𝑥+𝑦 𝑥∈𝑋(Ω)

Si 𝑋 et 𝑌 sont indépendantes alors

𝑃(𝑋 + 𝑌 = 𝑠) = ∑ 𝑃(𝑋 = 𝑥)𝑃(𝑌 = 𝑠 − 𝑥 )


𝑥∈𝑋(Ω)

Exemple 4 Soit 𝑋 et 𝑌 deux v.a indépendantes, de lois respectives 𝒫(𝜆1 ) et 𝒫(𝜆2 ). On a


𝒔

𝑃(𝑋 + 𝑌 = 𝑠) = ∑ 𝑃(𝑋 = 𝑥)𝑃(𝑌 = 𝑠 − 𝑥 )


𝒙=𝟎
𝒔 𝑠
𝜆1𝑥 𝜆𝑠−𝑥
2 𝑒 −(𝜆1 +𝜆2 )
𝑃 (𝑋 + 𝑌 = 𝑠) = ∑ 𝑒 −𝜆1 𝑒 −𝜆2 = ∑ 𝐶𝑠𝑥 𝜆1𝑥 𝜆𝑠−𝑥
2
𝑥! (𝑠 − 𝑥 )! 𝑠!
𝒙=𝟎 𝑥=0

𝑒 −(𝜆1 +𝜆2)
En utilisant la formule du binôme, on trouve𝑃(𝑋 + 𝑌 = 𝑠) = (𝜆1 + 𝜆2 )𝑠 , 𝑠 ≥ 0
𝑠!

D’où 𝑋 + 𝑌 ↪ 𝒫(𝜆1 + 𝜆2 ). Ce résultat se généralise à la somme de n lois de Poisson


indépendantes.

1-3-2 Couple de variables aléatoires continues

Si 𝑋et 𝑌sont deux v.a réelles continues, La loi du couple(𝑋, 𝑌) est déterminée par sa fonction de
répartition𝐹𝑋,𝑌 . Si cette fonction est deux fois dérivables par rapport aux deux variables, alors la
loi de (𝑋, 𝑌) est dite absolument continue, de densité 𝑓𝑋,𝑌 définie par :

8
𝜕 2 𝐹 (𝑥, 𝑦)
𝑓 (𝑥, 𝑦) =
𝜕𝑥𝜕𝑦
𝑥 𝑦
et 𝐹(𝑥, 𝑦) = ∫−∞ ∫−∞ 𝑓 (𝑢, 𝑣) 𝑑𝑢𝑑𝑣
+∞ +∞
Vérifiant : pour tout (𝑥, 𝑦) ∈ ℝ2 𝑓 (𝑥, 𝑦) ≥ 0 et∫−∞ ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1

1- Lois marginales
Les densités marginales de 𝑋 𝑒𝑡 𝑌 sont définies par
+∞ +∞
𝑓𝑋 (𝑥 ) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑦 et 𝑓𝑌 (𝑦) = ∫−∞ 𝑓 (𝑥, 𝑦)𝑑𝑥

Deux variables aléatoires absolument continues 𝑋 𝑒𝑡 𝑌 sont indépendantes si et seulement si :


∀(𝑥, 𝑦) ∈ ℝ2 , 𝑓(𝑥, 𝑦 ) = 𝑓𝑋 (𝑥 )𝑓𝑌 (𝑦)

2- Moments associés à un couple continu


Soit ℎ : ℝ2 ⟶ ℝ une application continue , l’espérance mathématique de ℎ(𝑋, 𝑌) est définie
par
+∞ +∞

𝐸(ℎ(𝑋, 𝑌)) = ∫ ∫ ℎ(𝑥, 𝑦)𝑓 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


−∞ −∞

La covariance de 𝑋 et 𝑌 est définie par

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 ((𝑋 − 𝐸 (𝑋))(𝑌 − 𝐸 (𝑌))) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)𝐸 (𝑌)


+∞ +∞
Où ; 𝐸 (𝑋𝑌) = ∫−∞ ∫−∞ 𝑥𝑦𝑓 (𝑥, 𝑦)𝑑𝑥𝑑𝑦

Les propriétés de la variance et de la covariance sont identiques au cas discret

3- Somme de deux variables aléatoires continues

Soit (𝑋, 𝑌) un couple de v .a absolument continues. La variable 𝑍 = 𝑋 + 𝑌 est une v.a


absolument continue de densité
+∞
𝑔𝑍 (𝑧) = ∫ 𝑓 (𝑥, 𝑧 − 𝑥 ) 𝑑𝑥
−∞

Si 𝑋 et 𝑌 sont indépendantes alors


+∞
𝑔𝑍 (𝑧) = ∫ 𝑓𝑋 (𝑥 )𝑓𝑌 (𝑧 − 𝑥 ) 𝑑𝑥
−∞

La fonction 𝑔𝑍 est appelée le produit de convolution de 𝑓𝑋 et 𝑓𝑌

9
Exemple 5 Soit 𝑋 et 𝑌 deux v.a indépendantes de même loi exponentielle de paramètre 𝜆

Le support de la v.a 𝑍 = 𝑋 + 𝑌 est ℝ+ , soit 𝑧 ≥ 0 . La densité de 𝑍 est


2 −𝜆𝑧
𝑔𝑍 (𝑧) = ∫0 𝑓𝑋 (𝑥) 𝑓𝑌 (𝑧 − 𝑥 )𝑑𝑥 = 𝜆2 ∫0 𝑒 −𝜆𝑥 𝑒 −𝜆(𝑧−𝑥) 𝑑𝑥 = 𝜆2 ∫0 𝑒 −𝜆𝑧 𝑑𝑥={𝜆 𝑧𝑒 𝑠𝑖 𝑧 > 0
𝑧 𝑧 𝑧
0 𝑠𝑖𝑛𝑜𝑛
D’où 𝑋 + 𝑌 ↪ Γ(2, 𝜆) . Ce résultat se généralise à la somme de n variables aléatoires
exponentielles indépendantes .

1-4- Conditionnement
1- 4-1 Lois conditionnelles

Définition 8 Soit (𝑋, 𝑌) un couple de variables aléatoires discrètes, et soit 𝑥 ∈ 𝑋(Ω) tel que
𝑃(𝑋 = 𝑥 ) ≠ 0 . La loi conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est définie par :
𝑃 (𝑋 = 𝑥, 𝑌 = 𝑦)
𝑃(𝑌 = 𝑦/𝑋 = 𝑥 ) =
𝑃 (𝑋 = 𝑥 )

Définition 9 Soit (𝑋, 𝑌) un couple de v.a absolument continues . Pour tout 𝑥 ∈ ℝ tel
( )
que 𝑓𝑋 𝑥 ≠ 0, la loi conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est donnée par
𝑓(𝑥, 𝑦)
𝑓𝑌|𝑋 (𝑦|𝑥 ) = 𝑓(𝑦|𝑥) =
𝑓𝑋 (𝑥)

1-4-2 Espérances conditionnelles

1- Cas discret

Soit (𝑋, 𝑌) un couple aléatoire discret. L’espérance conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est


définie par

∀𝑥 ∈ 𝑋 (Ω) , 𝐸 (𝑌|𝑋 = 𝑥 ) = ∑ 𝑦 𝑃(𝑌 = 𝑦⁄𝑋 = 𝑥 )


𝑦∈𝑌(Ω)

Théorème 2 (Théorème de l’espérance totale )

Soit 𝑋 et 𝑌 deux v.a.r. discrètes définies sur le même espace telle que 𝐸 (|𝑌|) < ∞. Alors la v.a.r.
discrète 𝐸 (𝑌|𝑋) admet une espérance et

𝐸(𝐸 (𝑌|𝑋)) = ∑ 𝐸 (𝑌|𝑋 = 𝑥 ) 𝑃(𝑋 = 𝑥 ) = 𝐸 (𝑌)


𝑥∈𝑋(Ω)

10
Exemple 6 Soit(𝑋, 𝑌) un couple de variables aléatoires dont la loi est définie par le tableau
suivant

𝑋∖𝑌 0 1 Loi de 𝑋
0 2/7 2/7 4/7
1 2/7 1/7 3/7
Loi de 𝑌 4/7 3/7 1
.
2
Les v.a 𝑋 et 𝑌 ne sont pas indépendantes puisque par exemple, 𝑃(𝑋 = 0, 𝑌 = 1) = 7 alors
12 2
que 𝑃 (𝑋 = 0)𝑃(𝑌 = 1) = 49 ≠ 7

On a
4 3 3 4 3 3
𝐸 (𝑋) = ∑1𝑥=0 𝑥𝑃(𝑋 = 𝑥 ) = 0 × 7 + 1 × 7 = 7 𝑒𝑡 𝐸 (𝑌) = ∑1𝑦=0 𝑦𝑃(𝑌 = 𝑦) = 0 × 7 + 1 × 7 = 7,
1 1
2 2 2 1
𝐸 (𝑋𝑌) = ∑ ∑ 𝑥𝑦𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = (0 × × 0) + (0 × × 1) + (1 × × 0) + (1 × × 1)
7 7 7 7
𝑥=0 𝑦=0
1
=
7
1 9 2
D’où 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)𝐸 (𝑌) = − 49 = − 49
7

𝑃(𝑋=0 , 𝑌=𝑦)
La probabilité conditionnelle de 𝑌 sachant 𝑋 = 0 est 𝑃(𝑌 = 𝑦|𝑋 = 0) = ce qui
𝑃(𝑋=0)
conduit au tableau suivant :

𝑦 0 1
𝑃(𝑌 = 𝑦|𝑋 = 0) 2/7 2/7
= 1/2 = 1/2
4/7 4/7

1 1 1
On calcule 𝐸 (𝑌|𝑋 = 0) = ∑1𝑦=0 𝑦𝑃(𝑌 = 𝑦|𝑋 = 0) = 0 × 2 + 1 × 2 = 2
𝑃(𝑋=1, 𝑌=𝑦)
De la même manière on calcule 𝑃 (𝑌 = 𝑦|𝑋 = 1) =
𝑃(𝑋=1)

𝑦 0 1
𝑃(𝑌 = 𝑦|𝑋 = 1) 2/7 1/7
= 2/3 = 1/3
3/7 3/7

1
on obtient 𝐸 (𝑌|𝑋 = 1) = ∑1𝑦=0 𝑦𝑃(𝑌 = 𝑦|𝑋 = 1) = 3 et on en déduit la loi de 𝐸 (𝑌|𝑋)

𝐸 (𝑌|𝑋) 𝐸 (𝑌|𝑋 = 0) =1/2 𝐸 (𝑌|𝑋 = 1) =1/3


𝑃(𝑋 = 𝑥 ) 4/7 3/7

1 4 1 3 3
et puis 𝐸(𝐸 (𝑌|𝑋)) = 2 × 7 + 3 × 7 = 7 = 𝐸 (𝑌)

11
2- Cas absolument continu
Soit (𝑋, 𝑌) un couple aléatoire absolument continu. L’espérance conditionnelle de Y sachant X =
x est définie par
+∞

𝐸 (𝑌|𝑋 = 𝑥 ) = ∫ 𝑦 𝑓(𝑦|𝑥)𝑑𝑦
−∞

Théoreme3 Soit 𝑋 et 𝑌 deux v.a.r. absolument continues définies sur le même espace telles que
𝐸 (|𝑌|) < ∞. Alors la v.a.r. continue 𝐸 (𝑌|𝑋) admet une espérance et

+∞

𝐸(𝐸 (𝑌|𝑋)) = ∫ 𝐸 (𝑌|𝑋 = 𝑥 ) 𝑓𝑋 (𝑥 )𝑑𝑥 = 𝐸 (𝑌)


−∞

Exemple 7 Soit un couple aléatoire (𝑋, 𝑌) de densité


𝑒 −𝑥−𝑦 𝑠𝑖 𝑥 > 0 , 𝑦 > 0
𝑓 (𝑥, 𝑦) = {
0 𝑠𝑖𝑛𝑜𝑛
Densités marginales de 𝑋 et de 𝑌 :
+∞ +∞
𝑓(𝑥 ) = ∫0 𝑓(𝑥, 𝑦)𝑑𝑦 = ∫0 𝑒 −𝑥−𝑦 𝑑𝑦 = 𝑒 −𝑥 si 𝑥 > 0 et nulle ailleurs
+∞ ∞
𝑓(𝑦) = ∫0 𝑓 (𝑥, 𝑦)𝑑𝑥 = ∫0 𝑒 −𝑥−𝑦 𝑑𝑥 = 𝑒 −𝑦 si 𝑦 > 0 et nulle ailleurs

Les v.a 𝑋 et 𝑌 sont indépendantes puisque 𝑓 (𝑥, 𝑦) = 𝑓𝑋 (𝑥 )𝑓𝑌 (𝑦). On a


+∞ +∞
𝐸 (𝑋) = ∫0 𝑥𝑓𝑋 (𝑥 )𝑑𝑥 = ∫0 𝑥𝑒 −𝑥 𝑑𝑥 = 1 ,
+∞ +∞
𝐸 (𝑌) = ∫0 𝑦𝑓𝑌 (𝑦)𝑑𝑦 = ∫0 𝑦𝑒 −𝑦 𝑑𝑦 = 1 et
+∞ +∞ +∞ +∞

𝐸 (𝑋𝑌) = ∫ ∫ 𝑥𝑦 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫ 𝑥𝑒 −𝑥 (∫ 𝑦𝑒 −𝑦 𝑑𝑦)𝑑𝑥 = 1


0 0 0 0

On obtient 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸 (𝑋𝑌) − 𝐸 (𝑋)(𝑌) = 0


L’espérance conditionnelle de 𝑌 sachant 𝑋 = 𝑥 est

+∞ +∞ +∞
𝑓 (𝑥, 𝑦)
𝐸 (𝑌|𝑋 = 𝑥 ) = ∫ 𝑦𝑓(𝑦|𝑥 )𝑑𝑦 = ∫ 𝑦 𝑑𝑦 = ∫ 𝑦 𝑒 −𝑦 𝑑𝑦 = 1
𝑓𝑋 (𝑥 )
0 0 0

12
3- Propriétés des espérances conditionnelles
Soit (𝑋, 𝑌) un couple aléatoire. Soit 𝜙 , 𝜑 deux fonctions de ℝ dans ℝ et soit ℎ une fonction de
ℝ2 dans ℝ. Sous réserve d’intégrabilité des variables aléatoires, on a les propriétés suivantes :
i- Si 𝑋 et 𝑌 sont indépendantes, alors 𝐸 (𝜑(𝑌)|𝑋) = 𝐸 (𝜑(𝑌)). En particulier, 𝐸 (𝑌|𝑋) = 𝐸 (𝑌).
ii- On a 𝐸 (𝜑 (𝑋)|𝑋) = 𝜑(𝑋). En particulier on a 𝐸 (𝑋|𝑋) = 𝑋
∀𝑎 ∈ ℝ, ∀𝑏 ∈ ℝ,
𝐸 (𝑎𝜑(𝑋) + 𝑏𝜙 (𝑌) |𝑋) = 𝑎𝐸 (𝜑(𝑋)|𝑋) + 𝑏𝐸 (𝜙(𝑌)|𝑋) = 𝑎𝜑(𝑋) + 𝑏𝐸 (𝜙(𝑌)|𝑋)
𝐸 (ℎ(𝑋, 𝑌)|𝑋 = 𝑥 ) = 𝐸 (ℎ(𝑥, 𝑌)|𝑋 = 𝑥 )

𝐸(𝜑(𝑌)) = 𝐸 (𝐸 (𝜑(𝑌))|𝑋)

1-4-3 Variances conditionnelles

Soit (𝑋, 𝑌) un couple aléatoire .la variance conditionnelle de Y sachant X = x est donnée par
𝑉𝑎𝑟(𝑌|𝑋 = 𝑥) = 𝐸 (𝑌 2 |𝑋 = 𝑥 ) − 𝐸 2 (𝑌|𝑋 = 𝑥)
Notons que 𝑉𝑎𝑟(𝑌|𝑋) est une variable aléatoire donc on peut calculer son espérance et on a

𝑉𝑎𝑟(𝑌) = 𝐸 (𝑉𝑎𝑟(𝑌|𝑋)) + 𝑉𝑎𝑟(𝐸 (𝑌|𝑋))

13
14
15

Vous aimerez peut-être aussi