0% ont trouvé ce document utile (0 vote)
117 vues65 pages

Cours de Probabilités 1 Et2

Ce document est un cours de calculs de probabilités destiné aux étudiants de L2 à l'Université Jean Lorougnon Guédé Daloa. Il couvre divers sujets tels que le dénombrement, les modélisations des phénomènes aléatoires, les variables aléatoires, les lois de probabilités, les convergences et les vecteurs aléatoires. Le cours vise à introduire les concepts fondamentaux des probabilités et leur application dans divers domaines scientifiques et sociaux.

Transféré par

Kadoh innocent Gan
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
117 vues65 pages

Cours de Probabilités 1 Et2

Ce document est un cours de calculs de probabilités destiné aux étudiants de L2 à l'Université Jean Lorougnon Guédé Daloa. Il couvre divers sujets tels que le dénombrement, les modélisations des phénomènes aléatoires, les variables aléatoires, les lois de probabilités, les convergences et les vecteurs aléatoires. Le cours vise à introduire les concepts fondamentaux des probabilités et leur application dans divers domaines scientifiques et sociaux.

Transféré par

Kadoh innocent Gan
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours de calculs de Probabilités L2

Université Jean Lorougnon Guédé Daloa

Docteur Yao Aubin N’DRI Page 1


Sommaire

Chapitre 1 Dénombrement dans un ensemble fini.……………………..……4

1Ensembles et opérations...….………………..………………………………………………..4

2 Cardinal d’un ensemble…………….…..…………………………………………………….7

3 Dénombrements.……………………………………………………………………………...8

Chapitre 2 Modélisations des phénomènes aléatoires………………………10


1 Définitions et vocabulaire.………………………………………………………………......13

2 Mesure de probabilité……………………………………………………………………….14

3 Probabilité conditionnelle…………………….……………………………………………..15

4 Indépendance………………………………………………………………………………..18

Chapitre 3 Variable aléatoire réelle...…………...…………………………...20


1 Introduction………...……………………………………………………………………….20

2 Loi de probabilité, Fonction de répartition………………...………………………...……..20

3 Espérance mathématique d’une loi finie…………….………………………………………23

4 Variance - Ecart type………………………………………………………………………..24

Chapitre 4 Lois de Probabilités…………..…………………………………...25


1 Lois discrètes………………………….…………………………………………………….25

1.1 Loi de Bernoulli…………......…………………………………………………………….25

1.2 Loi binomiale B(n, p )……………………………………………………………………..26

1.3 Loi hypergéométrique…………..…………………………………………………………28

1.4 Loi de Poisson…………..…………………………………………………………………23

1.5 Loi géométrique-Loi de Pascal…………...……………………………………………….31

1.5.1 Loi géométrique………………….....…………………………………………………...31

1.5.2 Loi de Pascale...………………….....…………………………………………………...33

2
2. Lois de probabilité continues…....…………………………………………………………33

2.1 Densités de probabilités………...…………………………………………………………34

2.2 Espérance d'une variable aléatoire………………………………………………….……..34

2.3 Moments d'ordre 2 ………………………………………………………………………..34

2.4 Exemples de lois de probabilité continues……………...…………………………………36

Chapitre 5 Convergences ……………………………………………………..42


1 Convergence en probabilité...……………………………………………………………….42

1.1 L'inégalité de Tchebychev…...……………………………………………………………42

1.2 Loi faible des grands nombres...…………………………………………………………...42

2 Convergence en loi.………..………………………………………………………………..43

3 Lois d’échantillonnages…………………………………………………………………….44

3.1 Loi d’échantillonnage des moyennes…………………………………………………….45

3.2 Loi d’échantillonnage de la fréquence……………………………………………………45

Chapitre 6. Vecteurs aléatoires …………………………………..………….47


I. Couples aléatoires discrets …………………………………………………………………47
1. Loi conjointe d'un couple discret…………………………………………………………..47
2. Fonction de répartition conjointe…………………………………………………………. 48
3. Distributions marginales…………………………………………………………………...49
4. Variable aléatoire fonction d'un couple discret…………………………………………….50

II. Couples aléatoires continus………………………………………………………………..52


1. Densité conjointe…………………………………………………………………………...52
2 Densité marginale…………………………………………………………………………..54
3.Couple aléatoire fonction d'un couple continu……………………………………………..54

III. Lois conditionnelles - Variables aléatoires indépendantes ………………………………57


1. Lois conditionnelles d'un couple discret - Espérances conditionnelles…………………....57
2. Lois conditionnelles d'un couple continu - Espérances conditionnelles…………………...58
3 Couple de variables aléatoires indépendantes ……………………………………………...59
4. Somme de deux variables aléatoires indépendantes ………………………………………61
5. Covariance de deux variables aléatoires …………………………………………………..62

Exercices Proposés……………………………………………………………………………64

3
Cours de Calculs de Probabilités

Introduction
Il peut paraitre irréaliste et prétentieux de vouloir, de par sa nature même, quantifier le hasard.
C'est pourtant ce qui a conduit à la notion de Probabilité. Nous allons dans ce cours introduire
ce concept mathématique, dont la puissance permettra de modéliser d'innombrables situations
ou le hasard intervient. La modélisation probabiliste est fondamentale dans tous les domaines
d'applications, qu'ils soient issus des sciences dures ou des sciences humaines, de la physique
(physique quantique, physique des particules), de la climatologie, de la biologie (mutations du
génome), de l'écologie (variabilité des comportements individuels ou variations
environnementales), de l'informatique et des réseaux de télécommunications, du traitement du
signal et de la parole, de la médecine (imagerie médicale), de l'économie, l'assurance, la finance
(marchés boursiers), ou de la sociologie.
Ce cours de probabilité débute par le formalisme des ensembles (univers) et des germes de
probabilités. Nous étudions ensuite les probabilités discrètes, sur un univers fini ou infini.
Nous étudions enfin les lois de probabilités usuelles discrètes et continues. La loi normale, le
théorème central limite et l’approximation par la loi normale sont omniprésentes.
Ces lois usuelles sont utiles pour le cours de statistique sur les intervalles de confiance et les
tests d’hypothèse classiques. Ceux-ci utilisent majoritairement la loi binomiale, la loi de
Poisson, la loi normale et ses ramifications que sont la loi de Student, la loi du chi-deux et la
loi de Fisher. Ces deux dernières lois sont utilisées couramment en biologie ou en médecine,
sans qu’il soit besoin de bien maîtriser le fondement mathématique sous-jacent.

4
Chapitre 1 Dénombrements dans un ensemble fini
Calculer des probabilités consiste majoritairement à savoir dénombrer des « cas possibles » et
des « cas favorables ». Nous commençons ce chapitre sur les dénombrements dans un ensemble
fini par des rappels sur la théorie des ensembles. Cette théorie débouche sur certaines opérations
ensemblistes utiles.

1 Ensembles et opérations

Rappelons qu’un ensemble E est constitué d’éléments, et que ces éléments sont tous distincts.
Une partie, ou sous-ensemble, de E contient quelques éléments de E. N’oublions pas l’ensemble
vide, noté ∅, qui ne contient aucun élément, mais qui est très utile.

1.1 Inclusion
Un ensemble A est inclus dans un ensemble B lorsque chaque élément de A appartient aussi à
B. On note A ⊂ B. A est donc un sous-ensemble de B.

1.2 Réunion de deux parties de E

Etant donnés deux parties A et B de E, la réunion 𝐴 ∪ 𝐵 est la partie de E formé des éléments
de E appartenant soit à A soit à B. Les ensembles A et B peuvent avoir des éléments en
commun ou bien ne pas en avoir.

On a évidemment 𝐴 ∪ ∅ = 𝐴.
La réunion est associée au mot OU : 𝑥 ∈ 𝐴 ∪ 𝐵 ⇔ (𝑥 ∈ 𝐴) 𝑜𝑢 (𝑥 ∈ 𝐵).
Il s’agit du « ou » que l’on appelle « inclusif » : un élément de 𝐴 ∪ 𝐵 appartient à A
ou à B, et il peut très bien appartenir aux deux ensembles.
La réunion se généralise évidemment à un nombre quelconque de sous-ensembles de E.

5
1.3 Intersection de deux parties de E

Etant donnés deux sous-ensembles A et B de E, l’intersection 𝐴 ∩ 𝐵 est la partie de E formée


des éléments appartenant à la fois à A et à B.
On a évidemment 𝐴 ∩ ∅ = ∅.
L’intersection est associée au mot ET : 𝑥 ∈ 𝐴 ∩ 𝐵 ⇔ (𝑥 ∈ 𝐴) 𝑒𝑡 (𝑥 ∈ 𝐵).
L’intersection se généralise aussi à un nombre quelconques de sous-ensembles de E.

Définition 1.1 Soit A1, , An , sont une infinité dénombrable de partie de 𝐸.


i) On note An la réunion dénombrable des An : c’est l’ensemble des états qui sont au moins
n 1

dans l’un des An.



ii) On note An l’intersection dénombrable des An : c’est l’ensemble des états qui sont dans
n 1

tous les An à la fois.

Propriétés 1.1 Soient A, B et C trois sous-ensembles quelconques d’un ensemble E. On a les


égalités suivantes :
i) 𝐴 ∩ (𝐵 ∪ 𝐶) = (𝐴 ∩ 𝐵) ∪ (𝐴 ∩ 𝐶), 𝐴 ∪ (𝐵 ∩ 𝐶) = (𝐴 ∪ 𝐵) ∩ (𝐴 ∪ 𝐶).
ii) Si A  B , alors A B  A , A B  B et B  A .

Propriétés 1.2 Soit A1, , An , sont une infinité dénombrable de partie de 𝐸.

   
i) A  An    A An  : distributivité de l’intersection par rapport à la réunion ;
 n 1  n 1
   
ii) A  An    A An  : distributivité de la réunion par rapport à l’intersection.
 n 1  n 1

1.4 Parties disjointes

On dit que deux parties A et B de E sont disjointes lorsque leur intersection est vide.
Il n’existe aucun élément de E qui soit à la fois dans A et dans B.
Plus généralement, on dit que les n parties 𝐴1 , … , 𝐴𝑛 de E sont disjointes lorsque 𝐴𝑖 ∩ 𝐴𝑗 = ∅
pour tout 𝑖 ≠ 𝑗. Cette notion se généralise à une infinité de parties de E.

6
1.5 Complémentaire d'une partie de E
Si A est une partie de E, l’ensemble des éléments de E qui n’appartiennent pas à A s’appelle
complémentaire de A dans E, et se note 𝐶𝐸𝐴 = 𝐴̅.

On a évidemment
 𝐸̅ = ∅.
 ∅ ̅ = 𝐸.
 𝐴̅ et A sont disjoints.
 𝐸 = 𝐴 ∪ 𝐴̅ .

En français, la négation de « OU » est « ET » et réciproquement. Il est facile de voir que

̅̅̅̅̅̅̅
𝐴 ∪ 𝐵 = 𝐴̅ ∩ 𝐵̅ ; ̅̅̅̅̅̅̅
𝐴 ∩ 𝐵 = 𝐴̅ ∪ 𝐵̅ . (𝐅𝐨𝐫𝐦𝐮𝐥𝐞𝐬 𝐝𝐞 𝐌𝐨𝐫𝐠𝐚𝐧)

Ceci s’exprime en français sous la forme suivante :


 Le contraire de « l’une des deux propriétés est vraie » est « les deux sont fausses ».
 Le contraire de « les deux propriétés sont vraies » est « l’une ou l’autre est fausse ».
Ces deux relations avec le complémentaire se généralisent à un nombre quelconque de
parties de E.

Propriétés 1.3 Soit A1, , An , sont une infinité dénombrable de partie de 𝐸.

   
On a : An  An ; An  An .
n 1 n 1 n 1 n 1

1.6 Partition de E
Voici une notion sans doute nouvelle, et très importante en probabilités.

Définition 1.2 Une famille 𝐴1 , 𝐴2 , … , 𝐴𝑛 de parties non vides de E forme une partition de E
lorsque :
 Elles sont disjointes : 𝐴𝑖 ∩ 𝐴𝑗 = ∅ pour tout 𝑖 ≠ 𝑗 ;
 Leur réunion est égale à E : ⋃𝑛𝑖=1 𝐴𝑖 = 𝐸.

Voici deux exemples


1) Soit E l’ensemble des Ivoiriens. Appelons 𝐴1 l’ensemble des gens nés au mois de janvier,
𝐴2 l’ensemble de ceux nés en février et ainsi de suite. 𝐴1 , 𝐴2 , … , 𝐴12 forment une partition de
E.
2) Plus mathématique : soit 𝐴𝑛 = [𝑛 ; 𝑛 + 1[. La famille infinie des 𝐴𝑛 , lorsque 𝑛 ∈ ℤ, forme
une partition de ℝ.

1.7 Produit cartésien

7
Soient E et F deux ensembles quelconques.

Définition 1.3 On appelle produit cartésien de E par F, l’ensemble des couples (𝑥, 𝑦) tels que
𝑥 ∈ 𝐸 et 𝑦 ∈ 𝐹.

Cet ensemble est noté 𝐸 × 𝐹, on lit « E croix F ».

Exemples
Exemples
 Si 𝐸 = {𝑎, 𝑏, 𝑐} et 𝐹 = {1, 2}, alors
𝐸 × 𝐹 = {(𝑎, 1), (𝑎, 2), (𝑏, 1), (𝑏, 2), (𝑐, 1), (𝑐, 2)}.
 Le produit ℝ × ℝ est l’ensemble des couples (x, y) de réels. C’est le plan.

Cette définition se généralise au produit de n ensembles 𝐸1 , 𝐸2 , … , 𝐸𝑛 : c’est l’ensemble


𝐸1 × 𝐸2 × … × 𝐸𝑛 des n-uplets (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) où 𝑥𝑖 est un élément quelconque de 𝐸𝑖 .

Souvent, on fait le produit n fois de suite du même ensemble. On le note 𝐸 𝑛 au lieu


de 𝐸 × 𝐸 × … × 𝐸.

2 Cardinal d'un ensemble

Le cardinal d’un ensemble désigne le nombre de ses éléments. Ceci pose un problème lorsque
l’ensemble est infini. Nous n’entrerons pas dans ce cas de figure. Dans la suite du chapitre, E
désigne un ensemble fini : cela veut dire que l’on peut numéroter ses éléments sous la forme
𝑥1 , 𝑥2 , … , 𝑥𝑛 où n est un entier naturel. Le cardinal de E, à savoir cet entier n, se note
𝐶𝑎𝑟𝑑(𝐸) = 𝑛.
Donnons quelques propriétés importantes sur les cardinaux. Nous travaillons toujours avec des
parties d’un certain ensemble E donné.

Propriétés 2.1
1) Si A et B sont disjointes, alors 𝐶𝑎𝑟𝑑(𝐴 ∪ 𝐵) = 𝐶𝑎𝑟𝑑(𝐴) + 𝐶𝑎𝑟𝑑(𝐵).
2) Plus généralement, si . 𝐴1 , 𝐴2 , … , 𝐴𝑛 sont disjoints, alors
𝑛 𝑛

𝐶𝑎𝑟𝑑 (⋃ 𝐴𝑖 ) = ∑ 𝐶𝑎𝑟𝑑(𝐴𝑖 ).
𝑖=1 𝑖=1
3) En particulier, si 𝐴1 , 𝐴2 , … , 𝐴𝑛 forment une partition de E, alors
𝑛 𝑛

𝐶𝑎𝑟𝑑 (⋃ 𝐴𝑖 ) = ∑ 𝐶𝑎𝑟𝑑(𝐴𝑖 ) = 𝐶𝑎𝑟𝑑(𝐸).


𝑖=1 𝑖=1
4) Pour A et B quelconques, on a :

𝐶𝑎𝑟𝑑(𝐴 ∪ 𝐵) = 𝐶𝑎𝑟𝑑(𝐴) + 𝐶𝑎𝑟𝑑(𝐵) − 𝐶𝑎𝑟𝑑(𝐴 ∩ 𝐵).

5) Pour trois A, B et C ensembles quelconques, on a :

𝐶𝑎𝑟𝑑(𝐴 ∪ 𝐵 ∪ 𝐶) = 𝐶𝑎𝑟𝑑(𝐴) + 𝐶𝑎𝑟𝑑(𝐵) + 𝐶𝑎𝑟𝑑(𝐶)

− 𝐶𝑎𝑟𝑑(𝐴 ∩ 𝐵) − 𝐶𝑎𝑟𝑑(𝐴 ∩ 𝐶) − 𝐶𝑎𝑟𝑑(𝐵 ∩ 𝐶) + 𝐶𝑎𝑟𝑑(𝐴 ∩ 𝐵 ∩ 𝐶).

8
Propriété 2.2 Soient E et F deux ensembles finis, on a :

𝐶𝑎𝑟𝑑(𝐸 × 𝐹) = 𝐶𝑎𝑟𝑑(𝐸) × 𝐶𝑎𝑟𝑑(𝐹).

Remarques On peut généraliser la propriété précédente à p ensembles.

 Pour tous ensembles finis 𝐸1 , 𝐸2 , … , 𝐸𝑛 , on a :

𝐶𝑎𝑟𝑑(𝐸1 × 𝐸2 × … × 𝐸𝑛 ) = 𝐶𝑎𝑟𝑑(𝐸1 ) × 𝐶𝑎𝑟𝑑(𝐸2 ) × … × 𝐶𝑎𝑟𝑑(𝐸𝑛 ).


 Pour tout ensemble E à n éléments, on a : 𝐶𝑎𝑟𝑑(𝐸 𝑝 ) = 𝑛𝑝 .

3 Dénombrements

Certains calculs de probabilité se font à partir de dénombrements. Les dénombrements se font


souvent en composant des dénombrements partiels dont les plus élémentaires sont énoncés ci-
après. Les problèmes de dénombrement peuvent devenir très vite très complexes.

3.1 Permutations
Définition 3.1 On appelle permutation des éléments d’un ensemble E toute suite ordonnée des
éléments de E, chaque élément de E intervenant une et une seule fois.

Si E possède n éléments, une permutation de E est donc une suite contenant aussi n éléments.

Dans un ensemble, il n’y a pas d’ordre, et l’ensemble 𝐸 = {1, 2, 3} est identique à l’ensemble
{2, 1, 3}. Par contre, on peut s’intéresser aux suites de trois éléments distincts formées avec les
éléments de E. Dans le mot suite, il y a un ordre sous- entendu, c’est à-dire qu’il y a un premier
terme, un deuxième terme et un troisième terme. Les suites possibles de 3 termes construites à
partir de 𝐸 = {1, 2, 3} sont au nombre de six, et elles sont toutes distinctes :
(1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2), (3, 2, 1).
Chacune de ces suites s’appelle une permutation des éléments de E.

Propriété 3.1 Un ensemble à n éléments compte n! permutations, avec


𝑛! = 𝑛 × (𝑛 − 1) × … × 3 × 2 × 1.
Le nombre 𝑛! se lit « factorielle n ».

En effet, nous avons n choix possibles du premier terme de la permutation. Pour le second
terme, il reste seulement n -1 choix possibles. Pour le troisième, il reste n -2 choix possibles, et
ainsi de suite. Pour le dernier terme, il y a un unique choix possible.
Au total, nous faisons le produit 𝑛 × (𝑛 − 1) × … × 3 × 2 × 1 de tous ces nombres de choix.

On a 1! = 1, 2! = 2, 3! = 6, 4! = 24, 5! = 120.
Par convention, on pose 0! = 1, ce qui sera très pratique.
La suite des factorielles vérifie la relation de récurrence 𝑛! = 𝑛 × (𝑛 − 1)!, avec l’initialisation
0! = 1.
Exemple 1
Exemple 1 Cherchons le nombre d’anagrammes du prénom ALICE. Un anagramme est une
permutation quelconque des lettres d’un mot, que cela ait un sens en français ou non. Ici, nous
avons 5 lettres différentes, et les 5! permutations des cinq lettres nous donnent 5! = 120
anagrammes distincts.ple 2

9
Exemple 2 Cherchons le nombre d’anagrammes du prénom EMILE. Il y a aussi cinq lettres,
mais on a deux fois la lettre E. Il est donc faux de dire qu’il y a 5! anagrammes.
Si les deux lettres E étaient distinctes (une en orange, l’autre en vert), on aurait bien 5!
anagrammes, mais MEILE avec le premier E orange et le second en vert, est le même
anagramme que MEILE avec le premier E en orange et le second en vert. Chaque anagramme
est trouvé deux fois, et la vraie réponse est donc
5!
.
2
Exemple 3 Cherchons le nombre d’anagrammes de « constitutionnel ». Si les 15 lettres étaient
distinctes, il y aurait 15! anagrammes (permutations possibles). Mais on rencontre trois fois la
lettre « t », par exemple. En les considérant comme distincts, nous avons compté 3! fois chaque
anagramme : si l’on peint les trois « t » de couleurs différentes, il y a 3! façons de les permuter
entre elles, mais cela donne le même anagramme. Il faut donc diviser notre 15! par 3! pour le «
t ». Il faut aussi le diviser par 3! (pour le « n »), par 2! (pour le « i ») et par 2! pour le « o ». On
obtient
15!
.
3! × 3! × 2! × 2!

Nous pouvons donc aborder la notion de permutations avec répétitions

3.2 Permutations avec répétitions

Définition 3.2 Soit E un ensemble fini de cardinal k (k ∈ ℕ∗), 𝐸 = {𝑥1 , 𝑥2 , … , 𝑥𝑘 }. Soient n un


entier tel que k ≤ n et n1, n2, ..., nk des entiers naturels tels que n1+n2 + ... + nk = n.
Une permutation de n éléments de E avec n1, n2, ..., nk répétitions, est une n-listes d'éléments
de E dans lequel chacun des éléments x1, x2, ..., xk de E apparaît n1, n2, ..., nk fois.
Propriété 3.2 Le nombre P(n1, n2, ..., nk) de permutations de n éléments avec n1, n2,
..., nk répétitions est
n!
P(n1 , n2 , , nk )  .
n1 !n2 ! nk !

5!
Exemple A partir du mot LILLE, il est possible de former au total 𝑃(3,1,1) = 3!×1!×1! = 20
mots différents.

3.3 p-listes ou p-uplets d’un ensemble


Il s'agit de compter toutes les listes possibles de p éléments parmi n en tenant compte
de l'ordre et avec répétitions des éléments.

Définition 3.3 Soit E un ensemble à n éléments et p un nombre entier naturel non nul.
On appelle p-uplet de E tout élément de l’ensemble 𝐸 𝑝 .

Propriété 3.3 Le nombre de p-uplets d’un ensemble à n éléments est 𝑛𝑝 .

10
3.4 Arrangements

Exemple Soit 𝐸 = {1, 2, 3, 4}. Regardons les suites ordonnées de deux éléments distincts pris
dans E : ce sont donc les suites (a, b), avec a et b distincts dans E, et la suite (b, a) qui est
différente de la suite (a, b). On obtient

(1, 2), (2, 1), (1, 3), (3, 1), (1, 4), (4, 1), (2, 3), (3, 2), (2, 4), (4, 2), (3, 4), (4, 3).

Une telle petite suite s’appelle arrangement des quatre éléments de E deux à deux.

Définition 3.4 Un arrangement de 𝑝 éléments dans un ensemble 𝐸 à n éléments est une suite
ordonnée de p éléments choisis parmi ces n éléments de départ.

Propriété 3.4 Le nombre d’arrangements de p éléments choisit parmi n est :


𝑛!
𝐴𝑝𝑛 = 𝑛(𝑛 − 1) × … × (𝑛 − 𝑝 + 1) = .
(𝑛 − 𝑝)!
3.5 Combinaisons

Exemple Soit 𝐸 = {1, 2, 3, 4} ensemble à 4 éléments. Intéressons-nous aux « paquets » de 2


objets pris dans cet ensemble, paquets sans ordre. Il s’agit donc, autre formulation, de trouver
les sous-ensembles de E à 2 éléments. On obtient :
{1, 2}, {1, 3}, {1, 4}, {2, 3}, {2, 4}, {3, 4} et c’est tout.
Le paquet {4, 2} est identique au paquet {2, 4} et est bien dans la liste.
Un tel paquet s’appelle une combinaison de deux éléments de E.

Définition 3.5 Une combinaison de p éléments de E est une partie de E qui contient p
éléments.

On choisit p éléments parmi n mais sans tenir compte de l'ordre et sans répétitions.
Chaque combinaison de p objets choisis parmi n donne naissance à p! Arrangements : on
permute de toutes les façons possibles les p éléments de la combinaison. On a donc une relation
simple entre le nombre d’arrangements et le nombre 𝐶𝑛𝑝 de combinaisons :
𝑝 𝑝
𝐴𝑛 = 𝑝! 𝐶𝑛 .

Propriété 3.5 Le nombre de combinaisons de p objets choisis parmi n est donné par
𝑝
𝐴𝑛 𝑛!
𝐶𝑛𝑝 = = (𝑛−𝑝)!𝑝! avec 𝐶𝑛0 = 1.
𝑝!

On a les formules suivantes :


𝐶𝑛𝑛−𝑝 = 𝐶𝑛𝑝 et 𝐶𝑛𝑝 = 𝐶𝑛−1
𝑝−1 𝑝
+ 𝐶𝑛−1 (Triangle de Pascal),

(𝑎 + 𝑏)𝑛 = ∑𝑛𝑝=0 𝐶𝑛𝑝 𝑎𝑛−𝑝 𝑏 𝑝 (Formule du Binôme de Newton).

11
Remarque Le nombre de sous-ensembles que l’on peut constituer (y compris l’ensemble
vide) à partir d’un ensemble de cardinal n est égal 2𝑛 . Ainsi, quand

𝑐𝑎𝑟𝑑(𝛺) = 𝑛, 𝑜𝑛 𝑎 𝑐𝑎𝑟𝑑(𝑃(𝛺)) = 2𝑛 .

3.6 Combinaisons avec répétitions

Exemple Le nombre de groupes de 3 lettres, avec répétition, que l’on peut former avec les 4
lettres 𝐸 = {𝑎, 𝑏, 𝑐, 𝑑} sont : aaa, aab, aac, aad, abb, abc, abd, acc, acd, add, bbb, bbc, bbd, bcc,
bcd, bdd, ccc, ccd, cdd, ddd.
3 6!
On note C 4  C63   20 .
3!3!
Un tel type de combinaison se ramène à un choix non ordonné ou un élément peut apparaître
plusieurs fois.

Propriété 3.6 Le nombre de combinaisons de p objets choisis parmi n, le même objet pouvant
être répété, est
𝑝 𝑝 (𝑛 + 𝑝 − 1)!
𝐶𝑛̅ = 𝐶𝑛+𝑝−1 = .
𝑝! (𝑛 − 1)!

Dans ce cas, le nombre d’objets choisis peut très bien être plus grand que n.

Récapitulatif
Pour appliquer une des formules de dénombrement vues dans ce chapitre à un problème à
résoudre, il suffit en général de déterminer si l’ordre est pris en compte ou non, ce qui indique
s’il s’agit d’une permutation, d’un arrangement ou d’une combinaison, puis de déterminer s’il
ya des répétitions ou non. Le tableau suivant récapitule les différentes formules.

Répétitions
sans avec
Permutations n! n!
P(n1 , n2 , , nk ) 
n1 !n2 ! nk !

Arrangements n! nk
Ank 
 n  k !
Combinaisons
Cnk 
n! k
C n  Cnkk 1 
 n  k 1!
k ! n  k  ! k ! n  1!

12
Chapitre 2 Modélisations des phénomènes aléatoires

Le but de la théorie des probabilités est de fournir un modèle mathématique pour décrire les
phénomènes aléatoires. Ce cours est une introduction à la modélisation de ces phénomènes.
Sous sa forme moderne, la formulation de cette théorie contient trois ingrédients : l’univers,
les événements, et la mesure de probabilité.

1 Définitions et vocabulaire

Définition 1.1 Un phénomène est dit aléatoire si, reproduit maintes fois dans des conditions
identiques, il se déroule chaque fois différemment de telle sorte que le résultat de l'expérience
change d'une fois sur l'autre de manière imprévisible.

Nous pouvons donner des exemples variées de tels phénomènes :


 Jeu de Pile ou Face
 Jeu de lancé de dés
Dans ces deux exemples, la différence entre les résultats, si l'on réitère l'expérience, peut être
liée à l'impulsion initiale communiquée au dé, à la rugosité de la table, aux vibrations du
plancher, ... Le hasard est l'illustration de la méconnaissance des conditions initiales, car la
pièce ou le dé ont des trajectoires parfaitement définies par la mécanique classique.
 Durée de vie d'une ampoule électrique.
 Temps de passage d'un bus.
 Nombre de voitures passant une borne de péage.
 Promenade d'un ivrogne : un pas en avant, deux pas en arrière.
 Position d'un impact sur une cible, dans un jeu de fléchettes.
 Evolution du prix d'un actif financier au cours du temps.
 Mutations dans le génome.

Univers Il s’agit d’un ensemble, noté habituellement Ω, dont les éléments correspondent à
tous les résultats possibles de l’expérience aléatoire que l’on cherche à modéliser. On
l’appelle également l’espace des observables, ou encore l’espace échantillon.

Exemples 1.1
1) Deux tirages à pile ou face : Ω = {𝑃𝑃, 𝑃𝐹, 𝐹𝑃, 𝐹𝐹}.
2) Taille d’une personne : Ω = ℝ+ .
3) Durée de vie d’une ampoule : Ω = ℝ+ .
4) Le cours d’une action sur un intervalle de temps [𝑠, 𝑡] : Ω = 𝒞([𝑠, 𝑡], ℝ+ ), où l’on a noté
𝒞([𝑠, 𝑡], ℝ+ ) l’ensemble des fonctions continues de [𝑠, 𝑡] vers ℝ+ .
5) La trajectoire d’un grain de pollen en suspension dans un fluide : 𝒞(ℝ+ , ℝ3 ).

Remarque Dans chaque cas de l’exemple 1.1 précédent, il ne s’agit que d’une modélisation de
l’expérience correspondante. Il y a évidemment de nombreuses façons de choisir l’univers. Tout
dépend l’énoncé du problème ou des hypothèses.

Evénements Un événement est une propriété dont on peut dire si elle est vérifiée ou non une
fois le résultat de l’expérience connu. Mathématiquement parlant, un événement est caractérisé
par l’ensemble des résultats dans lesquels il est réalisé (un tel résultat est alors appelé une
réalisation de l’événement).

13
Exemple 1.2
On lance successivement deux dés, Ω = {(𝑚, 𝑛) ∈ {1,2, 3, 4, 5, 6} × {1, 2, 3, 4, 5, 6}}
1) L’événement « le second lancer est un 6 » : {{𝑚, 6}, 𝑚 ∈ {1, 2, 3, 4, 5, 6}}.
2) L’événement « le premier lancer est supérieur au second » : {(𝑚, 𝑛) ∈ Ω ∶ 𝑚 > 𝑛}.
3) L’événement « la somme des deux lancers est paire » : {(𝑚, 𝑛) ∈ Ω ∶ 2(𝑚 + 𝑛)}.

Remarque L’ensemble des événements associés à une expérience aléatoire est un sous-
ensemble ℱ des parties de Ω, ℱ ⊆ 𝒫(Ω). Ce cours étant une introduction à la théorie des
probabilités, il serait pour nous raisonnable de prendre ℱ = 𝒫(Ω).

Définition 1.2 Un singleton (c’est-à-dire un événement réduit à un unique élément de Ω) est


appelé événement élémentaire. On appelle Ω l’événement certain et ∅ l’événement
impossible. Si 𝐴 ∈ ℱ, on appelle 𝐴̅ l’événement contraire de 𝐴. Si 𝐴, 𝐵 ∈ ℱ, on appelle
𝐴 ∩ 𝐵 l’événement « A et B », et 𝐴 ∪ 𝐵 l’événement « A ou B ». Finalement, si 𝐴 ∩ 𝐵 = ∅, A
et B sont dits disjoints, ou incompatibles.

2 Mesure de probabilité

Etant en possession de l’espace des événements ℱ, on cherche ensuite à attribuer à chacun de


ces derniers une probabilité, qui représente le degré de confiance que l’on a en sa réalisation.
Les probabilités sont des nombres réels compris dans l’intervalle [0, 1], avec l’interprétation
que plus la probabilité est proche de 1, plus notre confiance dans la réalisation de l’événement
est grande.

2.1 Définition
Soit Ω un univers et ℱ un espace des événements sur Ω. Une (loi de) probabilité sur ℱ est une
application P de ℱ dans [0, 1], qui vérifie :
i) P(Ω) = 1.
ii) Pour toute famille (finie, ou infinie dénombrable) d’événements  Ai iI qui sont deux à deux
 
incompatibles, on a : P  Ai    P  Ai  .
 iI  iI

Propriétés 2.1
Pour des événements quelconques A et B de ℱ et une probabilité P donnée, on a :
 
i) P A = 1 − P(A).
ii) P  A B   P( A)  P( B)  P  A B  .
iii) A ⊂ B  P(A) ≤ P(B).
iv) P(  ) = 0.
v) ∀𝐴 ⊂ 𝐵 ∈ 𝓕, 𝑃(𝐵\𝐴) = 𝑃(𝐵) − 𝑃(𝐴).

Espace probabilisé
On est capable de réaliser les calculs de probabilités quand chacune des trois composantes du
triplé (Ω, ℱ, P) a été précisée. On dit alors qu’on a défini l’espace probabilisé (Ω, ℱ, P).

Exemple. Jeu de pile ou face, un seul lancer. Ω = {𝑝, 𝑓}, ℱ = {∅, 𝑝, 𝑓, Ω}


Si la pièce est bien (parfaitement) équilibrée et si le lancer est réalisé « au hasard », la loi de
1
probabilité convenable est la loi P définie par : 𝑃(𝑝) = 2 = 𝑃(𝑓), 𝑃(Ω) = 1 et (∅) = 0.

14
Définir P quand Ω est fini.
L’application P est définie sur ℱ. Cependant dans le cas d’un univers fini, l’application P est
totalement déterminée par la seule connaissance des probabilités des événements élémentaires.

En effet, soit 𝐴 ∈ ℱ, un événement quelconque. A est une réunion d’événements élémentaires


ωi (disjoints par définition) et on a :
 
P( A)  P  i    P i  .
 iI  iI

C’est pourquoi, quand Ω est fini, pour définir la loi de probabilité P sur ℱ, on se contente de
définir les probabilités des événements élémentaires.

Loi uniforme : Règle « Cas favorables sur cas possibles »

Dans le cas d’un univers fini, dans le cas particulier où les événements élémentaires ont chacun
la même probabilité, la loi est dite loi d’équiprobabilité ou encore loi uniforme. La probabilité
1
de chaque événement élémentaire est alors . Quand la loi est uniforme, on a donc
card ()
card ( A)
∀𝐴 ∈ ℱ , P  A   P i   .
i A card ()

C’est la règle de calcul de probabilité d’un événement, consistant à faire « nombre de cas
favorables sur nombre de cas possibles ».
Cette règle n’existe donc que dans le cas où la loi d’équiprobabilité des événements
élémentaires est celle qui convient.

Exercice Quand on jette deux pièces, trois sortes de résultats peuvent être obtenus : pile-face
ou pile-pile ou face-face. Si les pièces sont bien équilibrées et le jet réalisé au hasard, ces trois
cas possibles ne sont pas équiprobables. Ici, un autre univers des cas possibles que celui suggéré
ci-dessus permet d’introduire la loi d’équiprobabilité a priori, rendant alors les calculs aisés.
Quel est cet univers ?

3 Probabilité conditionnelle

3.1 Définition-Remarques

Définition 3.1 Soit (Ω, ℱ, P) un espace probabilisé donné. Soit B ⊂ ℱ un événement donné
P  A  B
vérifiant P( B)  0 . L’application PB de ℱ dans [0,1] définie par PB ( A)  est aussi
P( B)
une probabilité sur ℱ, nommée probabilité conditionnelle (relative à B et à P).

Remarque Le réel 𝑃𝐵 (𝐴) se note aussi 𝑃(𝐴|𝐵) et se lit aussi probabilité de A sachant B.
La probabilité de A sachant B correspond à la part de l’ensemble A dans l’ensemble B. C’est-à-
dire, la part hachurée dans l’ensemble B.

15
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑′ é𝑙é𝑚𝑒𝑛𝑡𝑠 𝑐𝑜𝑚𝑚𝑢𝑛𝑠 à 𝐴 𝑒𝑡 𝐵 𝑃(𝐴 ∩ 𝐵)
𝑃𝐵 (𝐴) = = .
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑 ′ é𝑙é𝑚𝑒𝑛𝑡𝑠 𝑑𝑒 𝐵 𝑃(𝐵)

Représentation par un arbre pondéré

Exemple : Dans un lycée 54 % des élèves sont des filles dont 72 % sont externes. De plus,
76 % des garçons sont externes. On choisit un élève au hasard.

Remarques
Pour remplir et utiliser un arbre, on a les propriétés suivantes :
● Sur chaque branche de l'arbre, on écrit les probabilités correspondantes (attention pas de
pourcentage).
● La somme des probabilités inscrites sur les branches issues d'un même nœud est égale à 1
(Loi des noeuds).
● Le produit des probabilités inscrites sur chaque branche d'un chemin donne la probabilité de
l'intersection des événements placés sur ce chemin.
Par exemple, la probabilité d'avoir une fille externe est :
𝑃(𝐹 ∩ 𝐸) = 𝑃(𝐹) × 𝑃𝐹 (𝐸) = 0,54 × 0,72 = 0,3888.
● La probabilité d'un événement est la somme des probabilités des chemins qui aboutissent à
cet événement.

16
Par exemple, la probabilité d'avoir un élève externe :

𝑃(𝐸) = 𝑃(𝐸 ∩ 𝐹) + 𝑃(𝐸 ∩ 𝐹̅ ) = 0,54 × 0,72 + 0,46 × 0,76 = 0,7384.

3.2 Théorème des probabilités conditionnelles

Théorème 3.1 Soient A et B deux événements de ℱ et P une probabilité sur ℱ, avec P(A) et
P(B) non nuls.
i) P(A∩ B) = P(A) P(B|A)= P(B) P(A|B).

ii) Pour 3 évènements A, B et C, tels que de plus P( A B)  0 , on a

P(A ∩ B ∩ C) = P(A) P(B|A) P(C|A ∩ B).

NB La preuve de ii) provient de ce qu’on peut écrire PA(C|B) = PAB (C).

Exercice. Ecrivez la formule du théorème pour 4 événements.

Exercice résolu. Une urne contient n1 boules blanches B et n2 boules noires. On fait 2 tirages
au hasard sans remise (exhaustifs). Déterminer la probabilité p d’obtenir deux blanches ?

On pose B1 = « une B est obtenue lors du 1er tirage », B2 = « une B est obtenue lors du 2ème
tirage ». On a P(B1∩B2) = P(B1) P(B2|B1).
n1
P( B1 )  , proportion de B dans l’urne avant le 1er tirage (qui suppose l’équiprobabilité
n1  n2
pour chaque boule d’être tirée).
n1  1
P(B2|B1) = , proportion B dans l’urne après le 1er tirage.
n1  n2  1
n1  n1  1
Donc p = P(B1 ∩ B2) = .
 n1  n2  n1  n2 1
3.3 Formule de Bayes
Soit {𝐵𝑖 }𝑖∈𝐼 un système complet d’événements, c’est à dire une famille finie, ou infinie
dénombrable, d’événements de ℱ, 2 à 2 incompatibles, et recouvrant Ω entièrement :
Bi B j   i  j et Bi   .
iI

Soit 𝐴 ∈ ℱ. Très souvent, on utilise alors la décomposition suivante : A  A  . Ensuite


 
A  A  Bi    A  Bi  . Cette dernière réunion est une réunion d’événements
 iI  iI

disjoints 2 à 2 (les Bi l’étant). D’où : P ( A)   P  A  Bi  .


iI
Par exemple, on observe lors d’une épreuve la réalisation ou la non réalisation de A. Pour
chaque i, supposons connue la probabilité que la cause Bi intervienne, les Bi étant l’ensemble
de toutes les causes possibles, disjointes, pouvant intervenir dans cette réalisation ou non
réalisation de A. i , supposons de plus être capable d’évaluer la probabilité que A se réalise
sachant que ce soit la cause Bi qui soit intervenue. Alors, i , P(A ∩ Bi) = P(Bi) × P(A|Bi) est
connue.

17
Supposant maintenant que A se soit réalisé, la probabilité que ce soit la cause Bj qui soit alors
P  A  Bj  P  A  Bj 
intervenue est P(Bj |A) =  .
P( A)  P  A  Bi 
iI
D’où la formule de Bayes, ou formule des probabilités des causes
P  B j  P( A | B j )
P( B j | A)  .
 P  Bi  P( A | Bi )
iI

Exercice : Soit une population dont 1 habitant sur 100 a l’Ebola. Supposons qu’il existe un
test détectant l’Ebola, avec 9 chances sur 10 de le détecter chez une personne malade, et aussi
avec 8 chances sur 10 de reconnaître un sujet sain.
Déterminer la probabilité pour qu’un test positif corresponde effectivement à un malade
d’Ebola.

A = {test positif}, B = {le sujet a l’Ebola}, P(B |A) ?


P(B|A) =
P( A B)
P( A)
  
, on a P( A)  P A  B  B  P( A  B)  P( A  B) .

P(A ∩ B) = P(B)P(A|B) = 0, 01 × 0, 9 et P( A  B)  P( B) P( A | B) = 0, 99 × 0, 2.
Ainsi, P(B|A) =0,01× 0,9 + 0,99 × 0,2.
Le système complet est ici formé des deux événements B et B .

4 Indépendance
Soient A et B deux événements de ℱ muni de P.
A et B sont dits indépendants si et seulement si P(A ∩ B) = P(A)P(B).

A, B et C sont dits (mutuellement) indépendants si et seulement si :


les indépendances « 2 à 2 » sont vérifiées
P(A ∩ B) = P(A)P(B),
P(A ∩ C) = P(A)P(C),
P(B ∩ C) = P(B)P(C) et aussi l’indépendance « 3 à 3 » : P(A ∩ B ∩ C) = P(A)P(B)P(C).

Notons que l’indépendance des événements est relative à l’application probabilité considérée
sur ℱ : ainsi, des événements de ℱ peuvent être indépendants vis-à-vis d’une application
probabilité P1 et ne pas l’être vis-à-vis d’une autre probabilité P2.

Remarques
Si A ne dépend pas de la réalisation de B, A ne dépend pas non plus de la non réalisation de B.
Ainsi, A et B étant indépendants, A et B le sont aussi, de même que A et B, et que A et B .
Démontrez-le.
* Souvent l’indépendance est introduite a priori entre épreuves, et par suite, entre événements
associés à ces épreuves. Ainsi k tirages avec remise dans une urne étant indépendants, les k
événements qui en résultent le sont aussi.
* Ne pas confondre événements indépendants et événements incompatibles.
 2 événements A et B sont indépendants si P(A  B)= P(A)P(B)
 2 événements A et B sont incompatibles si A  B = .
La notion d’indépendance dépend de la probabilité sur l’univers, celle d’incompatibilité est
purement ensembliste.

18
Exercice 1 On extrait au hasard un jeton d’un sac contenant six jetons : trois rouges numérotés
1, 2 et 3, deux jaunes numérotés 1 et 2, et un bleu numéroté 1. On désigne respectivement par
R, U et D les événements : « le jeton est rouge », « le numéro est 1 » et « le numéro est 2 ». Les
événements R et U sont-ils indépendants ? Et les événements R et D ?

Exercice 2 On dispose de deux urnes U1 et U2 indiscernables. U1 contient 4 boules rouges et


trois boules vertes, U2 contient 2 boules rouges et 1 boule verte. On choisit une urne au hasard
et on tire une boule de cette urne. Calculer la probabilité pour qu’elle soit rouge.

Exercice 3 « Efficacité d’un test »


Une maladie atteint 3% d’une population donnée. Un test de dépistage donne les résultats
suivants :
 Chez les individus malades, 95% des tests sont positifs et 5% négatifs.
 Chez les individus non malades, 1% des tests sont positifs et 99% négatifs.
On choisit un individu au hasard.
1) Construire l’arbre pondéré de cette expérience aléatoire.
2) Quelle est la probabilité
a) qu’il soit malade et qu’il ait un test positif ?
b) qu’il ne soit pas malade et qu’il ait un test négatif ?
c) qu’il ait un test positif ?
d) qu’il ait un test négatif ?
3) Calculer la probabilité
a) qu’il ne soit pas malade, sachant que le test est positif ?
b) qu’il soit malade, sachant que le test est négatif ?
Interpréter les résultats obtenus aux questions 3a et 3b.

Exercice 4 Une compagnie d’assurance automobile fait un bilan des frais d’intervention, parmi
ses dossiers d’accidents de la circulation. Elle constate que 85 % des dossiers entraînent des
frais de réparation matérielle ; 20 % des dossiers entraînent des frais de dommages corporels.
Parmi les dossiers entraînant des frais de réparation matérielle, 12 % entraînent des frais de
dommages corporels. Soit les événements suivants : R : « le dossier traité entraîne des frais de
réparation matérielle » ; D : « le dossier traité entraîne des frais de dommages corporels ».
On choisit un dossier au hasard. Dans tout l’exercice, les résultats seront donnés sous forme
décimale, arrondis au millième près.
On choisit un dossier au hasard.
Calculer la probabilité pour qu’un dossier :
1) entraîne des frais de réparation matérielle et des frais de dommages corporels ;
2) entraîne seulement des frais de réparation matérielle ;
3) entraîne seulement des frais de dommages corporels ;
4) n’entraîne ni frais de réparation matérielle ni frais de dommages corporels ;
5) entraîne des frais de réparation matérielle sachant qu’il entraîne des frais de dommages
corporels.

19
Chapitre 3 Variable aléatoire réelle
1 Introduction
On parle de variables aléatoires (v.a.) qualitatives, quantitatives, discrètes, continues.
Ces variables définies en calcul des probabilités, servent à modéliser des caractères étudiés
qualitatifs, quantitatifs, discrets, continus.
C’est à peu près la même chose qu’une variable statistique sauf que dans le cas d’une variable
statistique on évalue un comportement réalisé (moyenne, etc) alors que dans le cas de variables
aléatoires on suppose un comportement futur (dans ce cas, on parle d’espérance plutôt que de
moyenne par exemple) ou théorique.

Exemples Le caractère « couleur des yeux » des individus d’une population sera dit qualitatif,
si les « valeurs » (on dit alors modalités) de ce caractère sont les couleurs : bleu, vert, marron,
noir,...

Pour le jeu de pile ou face, on peut coder la modalité pile par le nombre 1 par exemple, et la
modalité face par le nombre 0 et décider ainsi que la variable qualitative à deux modalités est
une variable quantitative, avec deux valeurs réelles possibles : 0 et 1.

Réciproquement, un caractère quantitatif, tel le nombre de points observés après le lancer d’un
dé, peut être codé qualitativement, s’il ne s’agit que de distinguer les faces du dé les unes des
autres, par exemple en affectant à chaque face une couleur différente. (Si l’ordre institué entre
les faces par les numéros allant de 1 à 6 est à conserver, ce remplacement serait maladroit, car
il y a alors une perte d’information non souhaitée).

Dans ce cours, nous nous intéressons aux variables (réelles) quantitatives, classées en deux
catégories : les variables discrètes et les variables continues.

Un caractère est continu si l’ensemble des valeurs possibles de ce caractère appartient à un (ou
une réunion de plusieurs) intervalle de IR (par exemple la taille, ou le poids, d’une espèce
animale), pouvant prendre toutes les valeurs possibles de cet intervalle. Un caractère est dit
discret si l’ensemble des valeurs possibles est fini ou infini dénombrable (par exemple, le
nombre de voitures s’arrêtant à un feu rouge).

Un caractère continu peut être discrétisé par recodage. Ainsi la taille des pieds des hommes peut
être codée par les pointures, nombres entiers de 10 à 50 par exemple, (ou catégorisée en 2
modalités : enfants et adultes). C’est donc le codage d’un caractère qui est discret ou continu.
Le choix du codage dépend de l’information que l’on veut (ou peut) mettre en œuvre. Alors un
codage discret (respectivement continu) donne lieu à une modélisation à
l’aide d’une v.a. discrète (resp. continue).

Définition Une variable aléatoire réelle X est une application d’un univers Ω dans ℝ.

2 Loi de probabilité, Fonction de répartition

La loi de probabilité d’une variable aléatoire permet de connaitre les chances d’apparition
des différentes valeurs de cette variable. On se place sur l’espace de probabilité (Ω, 𝑃).

2.1 Loi de probabilité


Soit X une variable aléatoire sur un univers des possibles 𝛺 à valeurs discrètes finies ou non :

20
𝑿(𝛀) = {𝒙𝟏 , … , 𝒙𝒊 , … }.
Définition On appelle distribution (ou loi) de probabilité de X la fonction P, définie par

{𝑃(𝑋 = 𝑥𝑖 ), 𝑖 ≥ 1}.

Remarques

i) Pour tout 𝑖 ≥ 1, 𝑃(𝑋 = 𝑥𝑖 ) ∈ [0, 1] 𝑒𝑡 ∑𝑖≥1 𝑃(𝑋 = 𝑥𝑖 ) = 1.


ii) Une représentation graphique de cette loi peut souvent être réalisée avec un diagramme en
bâtons (bâtons de longueurs 𝑃(𝑋 = 𝑥𝑖 ) aux points d’abscisse xi).

Exemple On jette un dé cubique et on s’intéresse au jeu suivant : si on obtient un numéro


inférieur ou égale à 4 on perd 1 Eco, sinon on gagne 2 Eco. L’application X qui à tout tirage
associe le gain obtenu (une perte est un gain négatif) est une variable aléatoire (discrète prenant
un nombre fini de valeurs).

 1 si i  4
On a   1, 2,3, 4,5, 6 , X ()  1, 2 et si i  Ω, on pose X (i)   .
2 sinon
Le tableau suivant nous donne la loi de probabilité de X :

i -1 2
2 1
P(X=i) 3 3

1 1 2 1
En effet, P( X  2)  P(5)  P(6)     ;
6 6 6 3

1 1 1 1 4 2
P( X  1)  P(1)  P(2)  P(3)  P(4)       .
6 6 6 6 6 3

Exercice résolu. On lance trois fois de suite une pièce de monnaie équilibrée. On gagne 2 Eco
pour chaque résultat « pile » et on perd 1 Eco pour chaque résultat « face ».

1) Quel est l’ensemble E des issues possibles ?


2) Soit X l’application de E dans ℝ qui, à chaque issue, associe le gain correspondant.
a) Quelles sont les valeurs prises par X ?
b) Quelle est la probabilité de l’événement « obtenir un gain de 3 Eco » ?
On note cette probabilité 𝑃(𝑋 = 3).
On obtient une nouvelle loi de probabilité sur l’ensemble des gains X(E)  {-3 ; 0 ; 3 ; 6} ; nous
la nommons loi de probabilité de X :

𝑥𝑖 x1  -3 x2  0 x3  3 x4  6

P(X = xi) 1 3 3 1
8 8 8 8

21
2.2 Indépendance de deux variables aléatoires

Soient 𝑋 et 𝑌 deux variables définies sur l’univers  d’une expérience aléatoire ; 𝑋 prend les
valeurs 𝑥1 , 𝑥2 , … , 𝑥𝑛 et 𝑌 prend les valeurs 𝑦1 , 𝑦2 , … , 𝑦𝑚 .

Définition. Deux variables X et Y sont indépendantes signifie que, quels que soient i et j, les
événements (𝑋 = 𝑥𝑖 ) et (𝑌 = 𝑦𝑗 ) sont indépendants.

Remarque. Les événements (𝑋 = 𝑥𝑖 ) et (𝑌 = 𝑦𝑗 ) sont indépendants si :

𝑃 ((𝑋 = 𝑥𝑖 ) ∩ (𝑌 = 𝑦𝑗 )) = 𝑃(𝑋 = 𝑥𝑖 ) × 𝑃(𝑌 = 𝑦𝑗 ).


2.3 Fonction de répartition

Définition Soit X une variable aléatoire. On appelle fonction de répartition de la variable 𝑋, la


fonction notée 𝐹𝑋 , définie par :
𝐹𝑋 ∶ ℝ → [0, 1]

𝑥 ↦ 𝑃(𝑋 ≤ 𝑥).

Remarques
i) La fonction de répartition est une fonction croissante, elle vérifie naturellement

lim 𝐹(𝑥) = 0 𝑒𝑡 lim 𝐹(𝑥) = 1.


𝑥→−∞ 𝑥→+∞

ii) On dit que deux variables aléatoires X et Y ont la même loi si elles ont la même fonction
de répartition 𝐹𝑋 = 𝐹𝑌 .
iii) Soit I un intervalle de ℝ. L’événement {𝑋 ≤ 𝑥} représente l’ensemble des valeurs
𝜔 ∈ Ω telles que 𝑋(𝜔) soit inférieur à x, i.e. {𝑋 ≤ 𝑥} = {𝜔 ∈ Ω ; 𝑋(𝜔) ≤ 𝑥}.

Remarque La fonction de répartition d’une variable discrète est constante par morceaux. Si X
est une variable discrète à valeurs dans {𝑥1 , … , 𝑥𝑛 } avec 𝑥1 < ⋯ < 𝑥𝑛 alors pour 𝑥 ∈ ℝ
𝑘

𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∑ 𝑃(𝑋 = 𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑘 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑥𝑘 ≤ 𝑥 < 𝑥𝑘+1 .


𝑖=1
De même si X est une variable discrète à valeurs dans {𝑥1 , … , 𝑥𝑛 , … } avec 𝑥1 < ⋯ < 𝑥𝑛 < ⋯
alors pour 𝑥 ∈ ℝ
𝑘

𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∑ 𝑃(𝑋 = 𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑘 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑥𝑘 ≤ 𝑥 < 𝑥𝑘+1 .


𝑖=1

Les sauts de la fonction de répartition 𝐹𝑋 ont lieu en les points 𝑥𝑖 et la hauteur du saut
au point 𝑥𝑖 est égale à 𝑃(𝑋 = 𝑥𝑖 ).

22
Exemple
 0 si x  1
2
Dans l’exemple du jet de dé on a : F ( x)   si  1  x  2 .
3
 1 si x2

3 Espérance mathématique d’une loi finie

Le terme d’espérance mathématique a été introduit par Pascal à propos des jeux de hasard.
L’espérance mathématique peut s’interpréter comme le gain moyen du joueur ou comme le
montant de la mise à engager à chaque partie si le jeu est sans frais. C’est pourquoi on dit qu’un
jeu est équitable quand 𝐸(𝑋) = 0, où X désigne le gain algébrique du joueur (gain – perte).
L’espérance mathématique cherche à traduire la tendance centrale de la loi.
Cette moyenne où chacune des valeurs xi intervient d’autant plus que sa probabilité est
importante s’apparente à un barycentre ou un centre de gravité en physique. On peut dire aussi
que 𝐸(𝑋) est l’abscisse du centre de gravité des points d’abscisses 𝑥1 , 𝑥2 , … , 𝑥𝑛 affectés des
masses 𝑃(𝑋 = 𝑥𝑖 ).

3.1 Définition

L’espérance mathématique d’une loi finie f d’une variable aléatoire X est le réel 𝐸(𝑋) définit
par :

𝐸(𝑋) = ∑ 𝑥𝑖 𝑃(𝑋 = 𝑥𝑖 ) = 𝑥1 𝑃(𝑋 = 𝑥1 ) + ⋯ + 𝑥𝑛 𝑃(𝑋 = 𝑥𝑛 )


𝑖=1

dans le cas où X est discrète et prend un nombre fini n de valeurs 𝑥𝑖 .

Exemple Dans l’exemple du dé cubique on a,

2 1
𝐸(𝑋) = × (−1) + × 2 = 0.
3 3

23
Théorème. Soit X une variable aléatoire et a une constante réelle. On a :

a) 𝐸(𝑎𝑋) = 𝑎 𝐸(𝑋).

b) 𝐸(𝑋 + 𝑎) = 𝐸(𝑋) + 𝑎.

Remarque. De manière générale, ai et bi étant des constantes on a

𝐸 (∑(𝑎𝑖 𝑋𝑖 + 𝑏𝑖 𝑌𝑖 )) = ∑ 𝑎𝑖 𝐸(𝑋𝑖 ) + ∑ 𝑏𝑖 𝐸(𝑌𝑖 ).


𝑖 𝑖 𝑖

4 Variance - Ecart type

4.1 Définitions
Après avoir traduit la tendance centrale par l’espérance, il est nécessaire de traduire la
dispersion autour de l’espérance par les valeurs de la variance et de l’écart type.
La variance de X, notée var(X) ou 𝜎𝑋2 ou V(X), est le réel 𝑉(𝑋) = 𝐸(𝑋 − 𝑋 )2 où 𝜇𝑋 = 𝐸(𝑋).

L'écart type de X, noté (X) ou X ou S(X), est le réel S ( X )  V ( X ) .

La variance et l'écart type sont des indicateurs de dispersion. L'écart type indique comment en
moyenne les valeurs de la variable sont groupées autour de la moyenne (espérance
mathématique).
Un faible écart type signifie que les valeurs sont peu dispersées autour de la moyenne.
Statistiquement, on observe que 75 % au minimum des observations appartiennent à l’intervalle

]𝐸(𝑋)– 2𝑆(𝑋) ; 𝐸(𝑋) + 2𝑆(𝑋)[.

La variance traduit la dispersion de la distribution de la variable aléatoire autour de sa valeur


moyenne. Etant un carré, la dimension de la variance n'est pas celle de la moyenne. C'est
pourquoi on utilise plus souvent l'écart type qui est la racine de la variance.

On dit aussi que la variance traduit la notion d'incertitude. Plus la variance est faible, moins le
résultat de l'expérience aléatoire est incertain. A la limite, une variable aléatoire de variance
nulle conduit à des expériences strictement identiques (i.e. le phénomène est complètement
déterministe, il n'y a donc plus aucune raison de garder la notion de variable aléatoire).

Propriétés
2
1) 𝑉(𝑋) = 𝐸(𝑋 − 𝐸(𝑋))2 = 𝐸(𝑋 2 ) − (𝐸(𝑋)) . (Théorème de Koenig)
2) Soit a est une constante, on a 𝑉(𝑋 + 𝑎) = 𝑉(𝑋) 𝑒𝑡 𝑉(𝑎𝑋) = 𝑎2 𝑉(𝑋).

3) Soient a et b des constantes, X et Y deux variables aléatoires réelles indépendantes on a

𝑉(𝑎𝑋 + 𝑏𝑌) = 𝑎2 𝑉(𝑋) + 𝑏 2 𝑉(𝑌).

24
Chapitre 4 Lois de probabilités usuelles
1 Lois de probabilités discrètes

1.1 Loi de Bernoulli

Définition
On considère une expérience n’ayant que deux résultats possibles, par exemple succès et échec
(ou présence et absence d’une certaine caractéristique). On introduit la variable aléatoire X qui
associe la valeur 0 à l’échec (ou à l’absence de la caractéristique) et la valeur 1 au succès (ou à
la présence de la caractéristique). Cette variable aléatoire est appelée variable de Bernoulli.

Exemple On souhaite savoir si une cellule est atteinte par le Coronavirus. On associe la valeur
1 si elle est atteinte (succès) et la valeur 0 si elle est saine (échec).

Distribution de X

Appelons p la probabilité de l’événement succès : k 0 1


𝑃({𝑠𝑢𝑐𝑐è𝑠}) = 𝑃(𝑋 = 1) = 𝑝
𝑃({é𝑐ℎ𝑒𝑐}) = 𝑃(𝑋 = 0) = 1 – 𝑝 = 𝑞. P( X  k ) q p

Espérance de X
2

𝐸(𝑋) = ∑ 𝑥𝑖 𝑃(𝑥𝑖 ) = 1 × 𝑃(𝑋 = 1) + 0 × 𝑃(𝑋 = 0) = 1 × 𝑝 + 0 × 𝑝 = 𝑝.


𝑖=0

Variance de X

𝜎𝑋2 = 𝑉(𝑋) = 𝐸(𝑋 − 𝐸(𝑋))2 = 𝐸(𝑋 2 ) − (𝐸(𝑋))2

= [12  𝑃(𝑋 = 1) + 02  𝑃(𝑋 = 0)] – 𝑝2 = 𝑝 − 𝑝2 = 𝑝(1 − 𝑝) = 𝑝𝑞.

Définition. Soit A une partie d’un ensemble E. On appelle fonction caractéristique de la partie
A dans E, l’application 1𝐴 ∶ 𝐸 → ℝ définie par :

1 𝑠𝑖 𝑥 ∈ 𝐴
1𝐴 (𝑥) = { .
0 𝑠𝑖𝑛𝑜𝑛

Remarque : Si 𝐴 ∈ P (E) la fonction indicatrice de A, 1𝐴 ∶ Ω → {0, 1} définie par

1 𝑠𝑖 𝜔 ∈ 𝐴
1𝐴 (𝜔) = {
0 𝑠𝑖𝑛𝑜𝑛

est une variable aléatoire discrète suivant une loi de Bernoulli de paramètre 𝐸(1𝐴 ) = 𝑃(𝐴).

25
1.2 Loi binomiale 𝓑 (n, p)
Soient les épreuves n fois répétées et indépendantes d’une même expérience de Bernoulli.
Chaque expérience n’a que deux résultats possibles : succès ou échec. Comme précédemment,
appelons p la probabilité de l’événement élémentaire succès et q=1 – p celle de l’événement
échec. A cette expérience multiple on associe une variable aléatoire X qui mesure le nombre de
succès obtenus.

Définition
La loi binomiale est la loi du nombre de succès lorsqu’on renouvelle n fois de manière
indépendante une épreuve de Bernoulli de paramètre p.

La loi Binomiale est utilisée pour modéliser un « sondage avec remise ».

Remarque On peut également la définir comme une somme de variable aléatoire de


Bernoulli. On note 𝑋𝑖 le résultat de la 𝑖 è𝑚𝑒 expérience :

1 𝑠𝑖 𝑙𝑎 𝑖 è𝑚𝑒 𝑒𝑥𝑝é𝑟𝑖𝑒𝑛𝑐𝑒 𝑒𝑠𝑡 𝑟é𝑢𝑠𝑠𝑖𝑒


𝑋𝑖 = { .
0 𝑠𝑖 𝑙𝑎 𝑖 è𝑚𝑒 𝑒𝑥𝑝é𝑟𝑖𝑒𝑛𝑐𝑒 𝑒𝑠𝑡 𝑢𝑛 é𝑐ℎ𝑒𝑐

On a alors
𝒏

𝑿 = ∑ 𝑿𝒊 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 .
𝒊=𝟏

Distribution de X
La probabilité d’avoir 𝑘 succès lors de n épreuves successives est :

𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 , 𝑘 = 0,1, 2, … , 𝑛.

Remarques

a) La probabilité de n’avoir aucun succès au cours de 𝑛 épreuves successives (𝑘 = 0) est qn ;


la probabilité d’avoir au moins un succès est donc 1-qn (un succès ou plus).
b) Les Cnk , s’appellent coefficients du binôme, car ils interviennent dans le développement du
n
binôme de Newton :  a  b   C
n k
n a k bn-k .
k 0

c) En appliquant la formule du binôme, on montre que la somme des probabilités pour toutes
les valeurs de X est égale à 1 :.
𝑛

∑ 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 = (𝑝 + 𝑞)𝑛 = (𝑝 + 1 − 𝑝)𝑛 = 1.


𝑘=0

26
Espérance de X

Si X suit la loi binomiale ℬ(n, p) alors E ( X )  np , V ( X )  npq et S ( X )  npq .

Preuve La variable X d’une loi binomiale ℬ(n, p) est la somme de n variables Xi de


Bernoulli ; l’espérance de la somme est égale à la somme des espérances, d’où
n
E(X) =  E ( X ) = np.
i 1
i

De plus, comme les n variables de Bernoulli sont indépendantes, la variance de la loi ℬ(n, p)
n
est égale à la somme n des variances de Bernoulli : V(X) = V ( X ) = npq.
i 1
i

En résumé,

𝑋(Ω) = {0, 1, … , 𝑛} ⊂ ℕ
𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
𝑋 → ℬ(𝑛, 𝑝) ⟺ .
𝐸(𝑋) = 𝑛𝑝
{ 𝑉(𝑋) = 𝑛𝑝(1 − 𝑝)

Exemples
1) Dans une population bovine, on admet que la robe d’un animal se caractérise par la présence
d’un gène dominant S (robe unie) ou d’un gène récessif s (robe tachetée bleue).
3
Selon la théorie de Mendel un croisement d’animaux hétérozygotes (𝑆, 𝑠) × (𝑆, 𝑠) donne 4
1
robes unies et 4 robes tachetées bleues.
Sur un échantillon de 160 bovins issus de croisements (𝑆, 𝑠) × (𝑆, 𝑠) on note
𝑋: ≪ 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑′ 𝑎𝑛𝑖𝑚𝑎𝑢𝑥 𝑎𝑦𝑎𝑛𝑡 𝑢𝑛𝑒 𝑟𝑜𝑏𝑒 𝑡𝑎𝑐ℎ𝑒𝑡é𝑒 𝑏𝑙𝑒𝑢𝑒 ≫.
Déterminer la loi de X. Justifier votre réponse.

2) On considère une entreprise de service après-vente (SAV) qui intervient avec retard avec une
probabilité égale à 0,25. Un client a appelé à 8 dates différentes.
a) Préciser la loi de X, son espérance et sa variance.

b) Calculer la probabilité que ce client soit victime d’au moins un retard.

c) Calculer la probabilité que ce client soit victime d’au plus 4 retards sachant qu’il en a subi
au moins un.

Réponse a) Appelons succès l’événement dont on connaît la probabilité, à savoir « intervenir


avec retard » et notons le (𝑋 = 1) ; appelons échec l’événement contraire (à savoir « intervenir
ponctuellement ») et notons le (𝑋 = 0). On a : 𝑃(𝑋 = 1) = 0,25 et 𝑃(𝑋 = 0) = 1 − 0,25 =
0,75, avec 𝑋(Ω) = {0 ; 1}.

27
A l’issue de chaque appel, la probabilité d’intervention avec retard est la même. Les appels
peuvent donc être supposés indépendants les uns des autres. Par conséquent, X est la succession
de 8 épreuves de Bernoulli identiques et indépendantes. X suit donc une loi binomiale :

 X ()  0, ,8



 P[ X  k ]  C8k 0, 25k 0, 75nk
X  B(8 ; 0,25)   .
 E ( X )  8  0, 25  2
V ( X )  8  0, 25  0, 75  1,5

b) 𝑃(𝑋  1) = 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) + ⋯ + 𝑃(𝑋 = 8. Il est toutefois plus simple de


remarquer que, dans la mesure où (𝑋  1) est l’événement contraire de (𝑋 < 1) :

𝑃(𝑋  1) = 1 − 𝑃(𝑋 < 1) = 1 − 𝑃(𝑋 = 0) = 1 − C80 0,250 0,7580 = 1 − 0,758.

𝑃((𝑋 ≤ 4) ∩ (𝑋 ≥ 1)) 𝑃(1 ≤ 𝑋 ≤ 4)


𝑐) 𝑃(𝑋≥1) (𝑋 ≤ 4) = = .
𝑃(𝑋 ≥ 1) 𝑃(𝑋 ≥ 1)

𝑃(𝑋  1) a été calculé à la question précédente. Il reste donc à calculer :

𝑃(1 ≤ 𝑋 ≤ 4) = 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) + 𝑃(𝑋 = 3) + 𝑃(𝑋 = 4)

= C81 0,2510,7581 + C82 0,252 0,7582 + C83 0,2530,7583  C84 0,254 0,7584

Conclusion : 𝑃(𝑋≥1) (𝑋 ≤ 4) = ⋯

3) Une urne contient 70 boules rouges et 30 boules noires. On tire au hasard une boule de l’urne.
Expliquer pourquoi cette expérience est une épreuve de Bernoulli. On appelle succès « le tirage
d’une boule rouge ». Donner la loi de probabilité de la variable aléatoire
𝑋 = « nombre de boules rouges tirées».

Propriété Soit X et Y deux variables indépendantes telles que X  B(n1 , p) ; Y  B(n2 , p)


alors X  Y  B  n1  n2 , p  .

1.3 Loi hypergéométrique

En pratique lorsque l’on tire un échantillon de taille n parmi une population de taille N, le bon
sens veut que l’on ne prenne pas 2 fois le même individu. Cela signifie que le tirage se fait sans
remise. Les v.a de Bernoulli associées aux différents éléments de l’échantillon et indicatrices
de la présence ou absence d’un caractère donné, sont alors dépendantes. Le schéma binomial
n’est plus adapté. On utilise dans ce cas le schéma hypergéométrique.
Le schéma hypergéométrique est une succession d’épreuves de Bernoulli non
indépendantes.

Définition. Supposons que dans une population de taille N, on a deux types de populations. N1
𝑁1 𝑁2
individus type 1 en proportion 𝑝 = 𝑁 et N2 individus type 2 en proportion 𝑞 = 𝑁 .

28
On fait n tirages sans remise dans la population et la v.a X = « nombre individus de type 1
dans l’échantillon » suit la loi hypergéométrique H(N, n, p).

En somme 𝑿 = ∑𝒏𝒊=𝟏 𝑿𝒊 , avec Xi des v.a de Bernoulli non indépendantes.

La distribution de la loi hypergéométrique s'écrit :

𝑋(Ω) = {max(0, 𝑛 − 𝑁𝑞 ; min(𝑛, 𝑁𝑝)} ⊂ ℕ


𝑘 𝑛−𝑘
𝐶𝑁𝑝 𝐶𝑁𝑞
𝑃(𝑋 = 𝑘) = 𝑛
𝐶𝑁
𝑋 → 𝐻(𝑁, 𝑛, 𝑝) ⟺ .
𝐸(𝑋) = 𝑛𝑝
𝑁−𝑛
{ 𝑉(𝑋) = 𝑛𝑝𝑞 × 𝑁−1

Remarques
𝑛 < 𝑁1
1) Les valeurs de 𝑋 sont les entiers compris entre 0 et 𝑛 si { 𝑒𝑡 .
𝑛 < 𝑁2

2) Cette loi de tirages sans remise est également la loi des sondages : en effet, si l’on interroge
n personnes issues d’une population globale de taille N, chaque individu est interrogé une seule
fois. En d’autres termes, il n’est pas remis dans la population initiale après avoir été sondé.

Remarque. Le schéma binomial correspond au processus de tirage d’un échantillon aléatoire


avec remise.
N1 : nombre d’individus ayant la propriété S et N2 : nombre d’individus n’ayant pas la propriété
S. N = N1 + N2 : nombre total d’individus.
On fait n tirages avec remise. La variable aléatoire X : « nombre d’individus ayant la propriété
𝑁1
S » suit B(n, p) avec p = 𝑁 .

Remarque
𝑛
Lorsque la taille N de la population est très grande par rapport à n : (𝑁 ≤ 0,1), on peut
𝑁
approcher la loi Hypergéométrique par la loi binomiale B(n, p) où 𝑝 = 𝑁1 . De manière générale,
lorsque la taille de la population est grande, on utilise souvent la binomiale même pour un
« sondage sans remise ».

Exemples
1) Suite de l’exemple précédent
On considère une entreprise de service après-vente (SAV) qui intervient avec retard avec une
probabilité égale à 0,25. On considère 8 clients différents. On en contacte 4. On admet qu’un
client est mécontent s’il a fait l’objet d’une intervention avec retard. On note M le nombre de
mécontents. Donner la loi de M, son espérance et sa variance.

Réponse. M correspond, dans le cadre d’un sondage, au tirage de 4 clients dans une
population de 8 clients sans remise : on peut en effet penser que la personne chargée de l’étude
de satisfaction n’interroge chaque client qu’une seule fois.
En outre, avant de commencer les tirages des individus, on sait que la probabilité d’intervention
avec retard, donc de mécontentement est de 0,25, d’où :

29
𝑋(Ω) = {max(0 ; 4 − 8 × 0,75) ; min(4 ; 8 × 0,25)} ⊂ ℕ
𝑘 4−𝑘
𝐶8×0,25 𝐶8×0,75
𝑃(𝑋 = 𝑘) = 𝐶84
X  H(8 ; 4 ; 0,25) 
𝐸(𝑋) = 4 × 0,25
8−4
{ 𝑉(𝑋) = 4 × 0,25 × 0,75 × 8−1

𝑋(Ω) = {0 ; 1 ; 2} ⊂ ℕ
𝐶2𝑘 𝐶64−𝑘
𝑃(𝑋 = 𝑘) = 𝐶84
 .
𝐸(𝑋) = 1
4
{ 𝑉(𝑋) = 0,75 × 7

2) A un guichet SOTRA à la gare sud du plateau (Abidjan) se présentent 2 femmes et 3


hommes. On choisit au hasard 2 personnes différentes pour une enquête.
Soit X = « nombre de femmes ».
a) Calculer la probabilité de choisir une femme au moins.
b) Calculer E(X) et 𝜎(X).

3) On choisit au hasard 10 étudiants de la L1 et L2 du tronc commun Agroforesterie-


Environnement pour un entretien. 304 étudiants sont inscrits en 1ère année, 233 en 2ème.
Soit la variable aléatoire X = « nombre d’étudiants de 1ère année » parmi les 10.
Calculer la probabilité d’avoir 5 étudiants de 1ère année et déterminer E(X) et 𝜎(X).

1.4 Loi de Poisson


Siméon-Denis Poisson (1781-1840) est un probabiliste, mathématicien et physicien français à
qui l’on doit d’importants développements sur la loi des grands nombres, les suites d’épreuves
de Bernoulli mais aussi sur les applications des probabilités dans le domaine du droit.

Définition. 𝑋 est une v.a. suit une loi de Poisson de paramètre λ : 𝑃(𝜆) si et seulement si

𝑿(𝛀) = ℕ
X→ P (𝝀) ⇔ {𝑷(𝑿=𝒌)=𝒆−𝝀.𝝀𝒌.
𝒌!
𝑬(𝑿)=𝑽(𝑿)=𝝀

Modélisation
Lorsqu’un événement a une faible probabilité p d’apparition lors d’une épreuve de Bernoulli et
si l’on répète un grand nombre de fois cette épreuve (n) le nombre total de réalisations de
l’événement considéré suit à peu près une loi de Poisson de paramètre 𝜆 = 𝑛𝑝.

Remarque : plus p est petit, meilleure est l’approximation. Pour cette raison la loi de Poisson
a été appelée loi des phénomènes rares.
Les processus de Poisson sont fréquents dans les problèmes de gestion :

30
- nombre de pièces défectueuses dans un échantillon de grande taille prélevé dans une
production où la proportion des défectueuses est faible.
- nombre de quadruplés, quintuplés par an dans un pays donné.
- nombre d’appels intercontinentaux sur une ligne pendant une durée donnée.
- nombre d’erreurs commises au cours d’une longue suite d’opérations (inventaire).
- nombre de coquilles dans une page d’un livre.
- pannes de machine.
- émission de particules radioactives.

Remarque Une formule utile :


+∞
𝑥
𝑥2 𝑥3 𝑥𝑛 𝑥𝑘
𝑒 = 1+𝑥 + + +⋯+ +⋯= ∑ .
2! 3! 𝑛! 𝑘!
𝑘=0

Propriété Si 𝑋 → 𝑃(𝜆), alors


𝑃(𝑋 = 𝑘) 𝜆
= .
𝑃(𝑋 = 𝑘 − 1) 𝑘

Exemple Un certain vaccin provoque chez un individu sur 800 une réaction dangereuse.
Quelle probabilité y a-t-il, en vaccinant 3000 personnes qu’il y ait
a) trois réactions dangereuses ? b) plus de deux réactions dangereuses ?

Réponse Soit Z la variable aléatoire indiquant le nombre total de réactions dangereuses.


1
On a une distribution binomiale avec 𝑝 = , 𝑛 = 3000 𝑒𝑡  = 𝑛𝑝 = 3,75 ;
800
a) 𝑃(𝑍 = 3) =
3,753 e3,75
3 2997
3000!  1   799 
3
C3000 p3  (1- p)300-3   
     0,2067
3! 2997!  800   800  3!
(valeur exacte donnée par la loi binomiale est : 𝑃(𝑍 = 3) = 0,20678)
On voit que le calcul est grandement facilité par le recours à la loi de Poisson.

b) 𝑃(𝑍 > 2) = 1 – 𝑃(𝑍 ≤ 2) = 1 – 𝑃(𝑍 = 0) – 𝑃(𝑍 = 1) – 𝑃(𝑍 = 2)  0,7229


(valeur exacte donnée par la loi binomiale est : 𝑃(𝑍 > 2) = 0,7231 ).

Propriété Soit X et Y sont deux variables indépendantes avec 𝑋  P( ) et 𝑌  P(  ) alors


𝑋 + 𝑌  P (   ) .

1.5 Loi géométrique et Loi de Pascal

1.5.1 Loi Géométrique


On se place dans une optique différente. A la base, il y a toujours l’épreuve de Bernoulli qui a
deux résultats possibles : un événement de probabilité p et l’autre. Mais cette fois, on ne connait
pas le nombre d'épreuves.

31
Définition. X suit la loi géométrique de paramètre p (G(p)), si elle est égale au nombre
d’épreuves de Bernoulli indépendantes qu’il faut réaliser pour obtenir pour la 1ère fois
l’événement (succès) de probabilité p.

Remarque. 𝑃(𝑋 = 𝑘) signifie « probabilité que le 1er succès soit obtenu à l’issue de la
𝑘 𝑖è𝑚𝑒 épreuve. En d’autres termes, les k-1 premières épreuves se sont soldées par des échecs et
la
𝑘 𝑖è𝑚𝑒 par un succès.
Soit 𝐸𝑖 = « obtention d’un échec à l’issue de la i-ième épreuve » et Si =« obtention d’un succès
à l’issue de la i-ième épreuve ». Dès lors : 𝑃(𝑋 = 𝑘) = 𝑃(𝐸1  𝐸2  . . .  𝐸𝑘−1  𝑆𝑘 ).
Comme les épreuves sont supposées indépendantes :

⏟× 𝑞 × … × 𝑞 × 𝑝 = 𝑞 𝑘−1 𝑝.
𝑃(𝑋 = 𝑘) = 𝑃(𝐸1 ) × 𝑃(𝐸2 ) ×. . .× 𝑃(𝐸𝑘−1 ) × 𝑃(𝑆𝑘 ) = 𝑞
𝑘−1 𝑓𝑜𝑖𝑠

NB : il faut au moins réaliser une épreuve pour obtenir un succès. En outre, il faudra
éventuellement un nombre infini d’épreuves pour obtenir un succès, d’où :

Loi de probabilité
𝑿(𝛀) = ℕ∗
𝑷(𝑿 = 𝒌) = 𝒒𝒌−𝟏 𝒑 .
𝑿 → 𝑮(𝒑) ⇔
𝟏/𝒑
{ 𝒒/𝒑𝟐

Suite de l’exemple précédent

On considère une entreprise de service après-vente (SAV) qui intervient avec retard avec une
probabilité égale à 0,25. Soit Y la loi du rang du 1er retard. Préciser la loi de Y, son espérance
et sa variance.

Les appels qui définissent une loi de Bernoulli étant identiques et indépendants, le temps
d’attente du 1er retard définit une loi géométrique de même paramètre que la loi de Bernoulli
précédemment évoquée :
𝑿(𝛀) = ℕ∗
𝑷(𝑿 = 𝒌) = 𝟎. 𝟕𝟓𝒌−𝟏 𝟎. 𝟐𝟓
𝟏
𝑿 → 𝑮(𝟎. 𝟐𝟓) ⇔ =𝟒 .
𝟎, 𝟐𝟓
𝟎, 𝟕𝟓
{ 𝟎, 𝟐𝟓𝟐

Exemple-Remarque On lance une pièce truquée jusqu’à ce qu’on obtienne une fois "Pile". On
note p la probabilité de tomber sur "Pile". On veut connaitre la probabilité d’avoir "Pile" au
premier lancer, au deuxième, . . ., au 𝑘 𝑖è𝑚𝑒 lancer, . . .. On note X le nombre de lancers
nécessaires pour avoir un succès.

Une formule utile quand on veut faire des calculs avec la loi géométrique :
𝟏 − 𝒙𝒏
𝟏 + 𝒙 + 𝒙𝟐 + ⋯ + 𝒙𝒏 = .
𝟏−𝒙
32
1.5.2 La loi de Pascal

La loi de Pascal est la généralisation de la loi géométrique lorsque l’on s’intéresse à l’obtention
pour la 𝑘 𝑖è𝑚𝑒 fois de l’événement de probabilité p.

Définition. X suit la loi de Pascal (𝑃𝑎 (𝑝) ), si elle est égale au nombre d’épreuves de Bernoulli
indépendantes qu’il faut réaliser pour obtenir pour la 𝑘 𝑖è𝑚𝑒 fois l’événement de probabilité p.

Remarque. La loi de Pascal décrit le nombre d'épreuves indépendantes nécessaires pour obtenir
k fois l'événement étudié. La probabilité d'apparition de l'événement à une épreuve est p, elle
est constante tout le long de l’expérience.

Exemple. On s'intéresse au nombre de jets nécessaires pour que le côté "pile" de la pièce
1
apparaisse k fois. A chaque jet, la probabilité d'apparition de "pile" est p = .
2

Loi de probabilité
𝑋(Ω) = {𝑘, 𝑘 + 1, … }
𝑘−1 𝑘 (1
𝑃(𝑋 = 𝑥) = 𝐶𝑥−1 𝑝 − 𝑝)𝑥−𝑘
𝑋 → 𝑃𝑎 (𝑝) ⇔
𝐸(𝑋) = 𝑘/𝑝
{ 𝑉(𝑋) = 𝑘𝑞/𝑝2

k est le nombre de réalisation de l'événement souhaité ; p est la probabilité de survenue de


l'événement à une épreuve.

Applications
La loi Binomiale et la loi de Pascale interviennent particulièrement en contrôle de qualité
mais aussi dans la surveillance des événements dont une certaine fréquence de survenue
est interprétée en terme de signal d’alarme.

Exercice Pour obtenir un correspondant téléphonique le taux de succès d’un appel est de
70%. On note T le nombre d’appels nécessaires pour obtenir ce correspondant 4 fois.
Déterminer la loi et l’espérance de T.

2 Lois de probabilité continues (ou à densité)

Il existe des variables aléatoires non discrètes, qui prennent toutes les valeurs d’un intervalle de
ℝ (borné ou non). On dit alors que la variable est continue. On s’intéresse à des événements
du type : « X est compris entre les réels a et b » soit « 𝑎  𝑋  𝑏 ».

Exemples Le temps d’attente à un arrêt de bus, la durée de vie d’un transistor, la distance du
point d’impact au centre d’une cible, mesures de température, précipitations, etc.

Les fonctions de répartition de ces variables sont des fonctions continues. Dans ce cas, on peut
dériver la fonction de répartition, et obtenir ainsi directement des informations sur les valeurs
les plus probables de ces variables.

33
2.1 Densités de probabilités

Définition On dit qu'une variable aléatoire X est à densité s'il existe une fonction f de ℝ dans
ℝ, positive ou nulle, et telle que, pour tout sous-ensemble B de ℝ :

𝑃(𝑋 ∈ 𝐵) = ∫ 𝑓(𝑥)𝑑𝑥
𝐵

où f est une fonction intégrable sur ℝ satisfaisant les conditions suivantes :

1) 𝑓(𝑥) ≥ 0 ∀𝑥 ∈ ℝ
+∞
.
2) ∫ 𝑓(𝑥)𝑑𝑥 = 1
−∞

On appelle cette fonction f la fonction de densité de probabilité de la variable aléatoire X.

Remarque. Soit X une variable aléatoire de fonction de répartition FX ( x)  P( X  x) . La


fonction de densité de probabilité de x, peut être définie comme, la dérivée de la fonction de
répartition :

dFX ( x)
f X ( x)  .
dx

De cette remarque, et du fait que FX ( )  0 , on peut trouver la fonction de répartition à


partir de la densité de probabilité :

FX ( x)  
x
f X (u )du .


La probabilité d'un intervalle est aussi directement calculable par intégration de la densité de
probabilité.
𝑏 𝑏 𝑎
𝑃(𝑎 < 𝑋 ≤ 𝑏) = ∫ 𝑓𝑋 (𝑡) 𝑑𝑡 = ∫ 𝑓𝑋 (𝑡) 𝑑𝑡 − ∫ 𝑓𝑋 (𝑡) 𝑑𝑡 = 𝑃(𝑋 ≤ 𝑏) − 𝑃(𝑋 ≤ 𝑎).
𝑎 −∞ −∞

Graphiquement, cela se traduit par la surface comprise entre a et b en dessous de la courbe de


densité.

Remarque : 𝑃(𝑎  𝑋  𝑏) est aussi noté 𝑃(𝑋 ∈ [𝑎, 𝑏]) et 𝑃(𝑋  𝑐) est noté 𝑃(𝑋 ∈ [𝑐, +∞[).

Propriétés

i) La probabilité que X prenne une valeur isolée de [a, b] est nulle. En effet, pour tout réel c de
𝑐
[a, b], 𝑃(𝑋 = 𝑐) = ∫𝑐 𝑓(𝑥)𝑑𝑥 = 0.

On en déduit que, pour tous réels a et b, avec a  b :

34
ii) 𝑃(𝑋 ∈ [𝑎, 𝑏]) = 𝑃(𝑋 ∈ [𝑎, 𝑏[) = 𝑃(𝑋 ∈]𝑎, 𝑏]) = 𝑃(𝑋 ∈ ]𝑎, 𝑏[ ).

̅̅̅̅̅̅̅
iii) Si [𝑎, 𝑏] désigne le complémentaire de [𝑎, 𝑏] dans un intervalle I de ℝ, alors

̅̅̅̅̅̅̅
𝑃(𝑋 ∈ [𝑎, 𝑏] ) = 1 − 𝑃(𝑋 ∈ [𝑎, 𝑏]).

2.2 Espérance d'une variable aléatoire

Définition L'espérance (ou valeur moyenne) d'une variable aléatoire X admettant la densité
f X ( x ) est définie par 𝐸(𝑋) = ∫−∞ 𝑥𝑓𝑋 (𝑥) 𝑑𝑥 ; EX    xi P( X  xi ) , pour les variables
+∞

aléatoires discrètes.

Propriété Soit X une variable aléatoire à densité, et 𝜑 ∶ ℝ → ℝ une application continue telle
que ∫ℝ |𝜑(𝑥)|𝑓𝑋 (𝑥)𝑑𝑥 < ∞. Alors, l’espérance de la variable aléatoire 𝜑(X) satisfait
𝐸(𝜑(𝑋)) = ∫ℝ 𝜑(𝑥)𝑓𝑋 (𝑥)𝑑𝑥.

Remarque. Observez la similarité formelle avec le résultat correspondant pour les variables
discrètes
𝐸(𝜑(𝑋)) = ∑ 𝜑(𝑥)𝑓𝑋 (𝑥).
𝑥∈𝑋(Ω)

2.3 Moments d'ordre 2

L’espérance d'une variable aléatoire nous indique tout simplement la position de son centre de
gravité, mais ne nous dit rien sur la forme de la densité. Les moments d'ordre 2 donnent une
information sur la dispersion des valeurs de la variable aléatoire.

2.3.1 Valeur quadratique moyenne

La valeur quadratique moyenne d'une variable aléatoire X qui admet une densité de probabilité
f X ( x ) est par définition
+∞
2)
𝐸(𝑋 =∫ 𝑥 2 𝑓𝑋 (𝑥) 𝑑𝑥.
−∞

Pour les variables aléatoires discrètes, la définition correspondante est

𝐸(𝑋 2 ) = ∑ 𝑥𝑖2 𝑃(𝑋 = 𝑥𝑖 ).


𝑖

2.3.2 Variance

La variance d'une variable aléatoire X qui admet une densité de probabilité f X ( x ) est par
définition

35
+∞
𝑉(𝑋) = 𝜎𝑋2 = 𝐸(𝑋 − 𝐸(𝑋))2 = ∫ (𝑥 − 𝐸(𝑋))2 𝑓𝑋 (𝑥) 𝑑𝑥.
−∞

On démontre facilement que


2
𝑉(𝑋) = 𝐸(𝑋 2 ) − (𝐸(𝑋)) .

Propriétés

(i)  2X  0 .

(ii) var( X  a )  var( X ) , où a est une constante.

(iii) var( aX)  a 2 var( X ) , où a est une constante.

A la racine carrée de la variance on donne le nom d'écart type.

La moyenne, la valeur quadratique moyenne et la variance sont des cas particuliers de


définitions plus générales, de moment d'ordre n et de moments centrés d'ordre n, qui sont définis
par n ( X )  E X n    x n f X ( x)dx



et par  n ( X )  E( X  1 ( X )) n    ( x  1 ( X )) n f X ( x)dx respectivement.




On constate facilement que var( X )  M2 ( X ) .

2.4 Exemples de lois de probabilité continues

2.4.1 Loi uniforme

Définition On appelle loi uniforme sur l'intervalle [a, b] de ℝ, la loi de probabilité continue
sur [a, b] dont la densité est la fonction constante f définie par :

1 / (b  a) a  x  b
f X ( x)   .
0 sinon

Remarques. i) Pour cette loi, la probabilité d'un intervalle [, ] inclus dans [a , b] est
𝜷 𝟏 𝜷−𝜶
égales à : P ([ ; ] ) = ∫𝜶 𝒅𝒙 = .
𝒃−𝒂 𝒃−𝒂

ii) Les erreurs de quantification sont en général bien décrites par cette loi.

Moments Si une variable X suit la loi uniforme sur l'intervalle [a, b], alors
𝑎+𝑏 (𝑏−𝑎)2
𝐸(𝑋) = 𝑒𝑡 𝑉𝑎𝑟(𝑋) = .
2 12

36
Exercice Soit X une variable aléatoire de loi uniforme sur [0, 1].
a) Calculer directement 𝐸(𝑋) et 𝑉(𝑋).
b) On pose 𝑌 = 𝑎 + (𝑏 − 𝑎) 𝑋. Que valent 𝐸(𝑌) et 𝑉(𝑌) ? Quelle est la loi de Y ?
Qu'en conclut-on ?

2.4.2 Loi exponentielle

Définition Soit λ un réel strictement positif. On appelle loi exponentielle de paramètre λ, la loi
de probabilité dont la densité 𝑓𝜆 est la fonction définie sur [0 ; +  [ par :

𝑓𝜆 (𝑥) = 𝜆𝑒 −𝜆𝑥 .

Moments Si X est une variable aléatoire suivant la loi exponentielle de paramètre 𝜆, alors

1 1
𝐸(𝑋) = 𝜆 et 𝑉(𝑋) = 𝜆2 .

Remarques.

i) Cette loi est par exemple couramment utilisée pour décrire le temps de transmission d'un
message en systèmes de communication.

ii) La durée de vie, exprimée en années, d’un noyau radioactif ou d’un composant électronique
est modélisée par une variable aléatoire suivant une loi exponentielle.

iii) La loi exponentielle est celle de la mortalité des êtres qui ne seraient pas soumis au
vieillissement. A chaque moment ils ont la même probabilité de mourir dans l’unité de temps
qu’il leur reste, quel que soit leur âge.

2.4.3 La loi Gaussienne ou loi Normale

La loi Normale est une loi centrale dans la théorie des probabilités. Elle est notamment
très utilisée en statistique. Une grandeur influencée par un grand nombre de paramètres
indépendants est souvent modélisée par une loi normale (par exemple, les erreurs de mesures
lors d’une expérience).

La densité Gaussienne de paramètres  et  décrit une variable aléatoire continue avec valeurs
dans ℝ donnée par :
1
1 − (𝑥−𝜇)2
𝑓𝑋 (𝑥) = 𝜎√2𝜋 𝑒 2𝜎2 𝑎𝑣𝑒𝑐 𝑥 ∈ ℝ.

La fonction de répartition correspondante à cette densité peut être trouvée tablée dans de
nombreuses références.

Moments Si une variable aléatoire X suit une loi Gaussienne de paramètres  et  , alors

𝑬(𝑿) = 𝝁 𝒆𝒕 𝑽(𝑿) = 𝝈𝟐 .

37
Calcul des probabilités d’une loi normale

i) La fonction de répartition de la loi normale réduite permet d’obtenir les probabilités

associées à toutes variables aléatoires normales N (μ, σ) après transformation en variable

centrée réduite.

ii) On appelle fonction π, la fonction de répartition d’une variable normale réduite X


𝑥 2
1 𝑡 −
telle que : π : ℝ → ℝ ; t ↦ π(t) = P(X < t) = ∫ 𝑒 2 𝑑𝑥.
√2𝜋 −∞

Les propriétés associées à la fonction de répartition π sont :

(P1) π est croissante, continue et dérivable sur ℝ et vérifie :

lim 𝜋(𝑡) = 1 et lim 𝜋(𝑡) = 0.


𝑡→ +∞ 𝑡→ −∞

(P2) ∀ t ∈ ℝ, π (t) + π (-t) = 1 ; ∀ t ∈ ℝ, π (t) - π (-t) = 2π(t) - 1.

Une application directe de la fonction π est la lecture des probabilités sur la table de la loi
normale réduite. Sa courbe représentative est donnée par la figure 3.

Fig.3

Remarques. Cette courbe est symétrique par rapport à l’axe des ordonnées.
L’aire totale comprise entre la courbe et l’axe des abscisses est égale à 1.

Exemples 1. Calcul de P(T ≤ 1,67) = π(1,67) ; T ~ N (0, 1).

La table donne directement le résultat. Il suffit de trouver les deux premiers chiffres de t
dans la colonne, soit 1,6. Le troisième chiffre de t est indiqué dans la première ligne, soit
0, 07. La réponse est donnée à l’intersection de la ligne correspondant à 1,6 et de la colonne
correspondant à 0,07, soit P(T ≤ 1,67) = 0,952 5.

38
La table suivante donne quelques valeurs de la fonction de répartition 𝚽 de la
distribution normale standard pour différentes valeurs non négatives de z :
  z   PZ  z  .

Exemple 2 Calcul de P(T ≥ 1,25).

On a P(T ≥ 1,25) = 1-P(T < 1,25), car P(𝐴̅) = 1-P(A).


Or π(1, 25) = P(T ≤ 1,25) et P(T = 1,25) = 0 puisque T est une variable aléatoire continue,
d’où : P(T ≥ 1,25) = 1 - π (1,25) = 1- 0,894 4 = 0,105 6.

Exercice

a) Soit X une variable aléatoire de loi N (0,1). Que valent : P( X -1 ) P( -1 < X < 2 ) ?

b) Soit X une variable aléatoire de loi N (1,4). Que vaut P( X > 5) ?

Propriété. Soient X et Y deux variables aléatoires indépendantes et de lois normales. Alors


X+Y suit une loi normale. Plus précisément, si X suit la loi N (, ) et Y suit N (, ),
alors X+Y suit la loi N ( ; √𝜎12 + 𝜎22 ).

39
2.4.4 Lois associées à la loi normale

Les lois de probabilité que nous abordons à présent sont les lois les lois dites associées, voire
dérivées, de lois normales. Elles apparaissent principalement en statistique.

2.4.4.1 Lois de Pearson

Définition. Soit 𝜈 ∈ ℕ∗ , on appelle loi de Pearson, ou loi du 𝜒 2 à 𝜈 degrés de liberté


1
la loi de probabilité continue dont une densité est donnée par : 𝑓(𝑥) = 𝜈 𝑥 𝜈⁄2−1 𝑒 −𝑥⁄2
2 ⁄2 Γ(ν⁄2)
avec 𝑥 ∈ ℝ+ . L’espérance mathématique de X vaut ν et sa variance vaut 2ν.

Proposition. Soient X1, . . . , Xn , n variables aléatoires indépendantes identiquement

distribuées de loi N (0,1). La variable aléatoire 𝑋 = ∑𝑛𝑘=1 𝑋𝑘2 a pour loi, la loi de 𝜒 2 à n
degrés de liberté (d.d.l.).

Remarque : Le point important est que c’est par ce type d’expression que sont introduites
généralement les variables aléatoires de loi 𝜒 2 (𝑛). Il est extrêmement rare d’avoir recours à la
formule de la densité. Dans la pratique, on se sert de tables ou de logiciels de calcul pour évaluer
des probabilités liées à ces lois.

La loi de Pearson ou loi de χ2 (Khi deux) trouve de nombreuses applications dans le cadre

de la comparaison de proportions, des tests de conformité d’une distribution observée à une

distribution théorique et le test d’indépendance de deux caractères qualitatifs. Ce sont les test

du khi-deux.

Propriétés

P1. Si X1, X2,…, Xi,…, Xn sont n variables normales centrées réduites et s’il existe k
relations de dépendance entre ces variables alors 𝑋12 + 𝑋22 + ⋯ + 𝑋𝑖2 + ⋯ + 𝑋𝑛2 suit une

loi de Pearson à n - k degrés de liberté.

P2. Si U suit une loi de Pearson à n d.d.l., si V suit une loi de Pearson à m d.d.l., et si U et V
sont indépendantes alors U + V suit une loi de Pearson à n + m d.d.l., U-V suit une loi de
Pearson à n-m d.d.l. (si n < m).

Espérance et variance

● L’espérance de la variable du χ2 est : E(χ2) = n.

● La variance de la variable du χ2 est : V(χ2) = 2n.

40
Exercice. a) Soit X une variable aléatoire qui suit la loi 𝜒 2 (6). Que vaut 𝑃( 3 ≤ 𝑋 ≤ 9) ?

b) Soient X et Y deux variables aléatoires indépendantes, X suivant la loi 𝜒 2 (3), Y suivant la

loi 𝜒 2 (6). Que vaut 𝑃( 𝑋 + 𝑌 ≥ 10 ) ?

2.4.4.2 Loi de student

La loi de Student (ou loi de Student-Fisher) est utilisée lors des tests de comparaison de

paramètres comme la moyenne et dans l’estimation de paramètres de la population à partir de


données sur un échantillon (Test de Student). Student est le pseudonyme du statisticien

anglais William Gosset qui travaillait comme conseiller à la brasserie Guinness et qui publia

en 1908 sous ce nom, une étude portant sur cette variable aléatoire.

Définition. Soit U une variable aléatoire suivant une loi normale réduite N (0,1) et V une
variable aléatoire suivant une loi de Pearson à n degrés de liberté 𝜒 2 (𝑛), U et V étant
𝑈
indépendantes, on dit alors que 𝑇𝑛 = 𝑉
suit une loi de Student à n degrés de liberté.

𝑛

Espérance et variance

L’espérance de la variable de Student est : E(T) = 0 si n >1. La variance de la variable de


𝑛
Student est : V(T) = 𝑛−2 si n > 2.

Exercice. (a) Soit X une variable aléatoire qui suit la loi de Student T12.

(b) Que vaut 𝑃(𝑋 ≤ 1,4) ?

2.4.4.3 Loi de Fisher-Snedecor

La loi de Fisher-Snedecor est utilisée pour comparer deux variances observées et sert surtout
dans les très nombreux tests d’analyse de variance et de covariance.

Définition Soit U et V deux variables aléatoires indépendantes suivant une loi de Pearson
respectivement à n et m degrés de liberté.
𝑈⁄𝑛
On dit que 𝐹 = 𝑉⁄𝑚 suit une loi de Fisher-Snedecor à n et m degrés de liberté.

Espérance et variance
𝑚
L’espérance de la variable de Fisher-Snédecor est : E(F) = 𝑚−2 , si m > 2.

2𝑚2 (𝑛+𝑚−2)
La variance de la variable de Fisher-Snédecor est : 𝑉(𝐹) = 𝑛(𝑚−2)2 (𝑚−4) si m > 4.

41
Chapitre 5 Convergences

1 Convergence en probabilité

1.1 L'inégalité de Tchebychev

Soit X une variable aléatoire d'espérance E(X) et de variance V(X), et soit a un réel positif.
2
Notons Y la variable aléatoire définie par : 𝑌(𝜔) = {𝑎 𝑠𝑖 | X(ω) − E(X) | ≥ a .
0 𝑠𝑖𝑛𝑜𝑛
2
On a bien sûr : 𝑌 ≤ (𝑋 − 𝐸(𝑋))2, et donc : 𝐸(𝑌) ≤ 𝐸(𝑋 − 𝐸(𝑋)) .

De plus : 𝐸(𝑌) = 𝑎2 𝑃( | 𝑋 − 𝐸(𝑋) | ≥ 𝑎 ).


𝑉(𝑋)
On a ainsi obtenu l'inégalité de Tchebychev : 𝑃(| 𝑋 − 𝐸(𝑋) | ≥ 𝑎 ) ≤ 
𝑎2

Remarque. Cette inégalité n'a bien sûr pas d'intérêt lorsque les probabilités

𝑃(| 𝑋 − 𝐸(𝑋) | ≥ 𝑎 ) peuvent être calculées explicitement et exprimées simplement. Elle


est par contre utile dans le cas contraire, à condition bien sûr de connaître l'espérance et la
variance de X. Comme la définition même de 𝑉(𝑋), l'inégalité de Tchebychev met en
évidence l'intérêt de la variance comme mesure de l'étalement des valeurs prises par X autour
de la valeur moyenne 𝐸(𝑋).

Définition 1.1 (Convergence en probabilité)


On considère une suite (Xn) d’une v.a. définie sur Ω, X une autre v.a. définie sur Ω.
On dit que la suite (Xn) converge en probabilité vers une constante réelle l si

∀𝜀 > 0, lim 𝑃(|𝑋𝑛 − 𝑙| > 𝜀) = 0.


𝑛→+∞

On dit que la suite (Xn) converge en probabilité vers X si

∀𝜀 > 0, lim 𝑃(|𝑋𝑛 − 𝑋| > 𝜀) = 0.


𝑛→+∞

Conséquence Pour que (Xn) converge en probabilité vers X, il faut et il suffit que
𝐸(𝑋𝑛 − 𝑋) → 0 et 𝑉(𝑋𝑛 − 𝑋) → 0 lorsque n !𝑛 → +∞ (la démonstration passe par
l’inégalité de Bienaymé-Tchebychev).

1.2 Loi faible des grands nombres

Les lois des grands nombres s’intéressent aux limites de sommes du type

S n  X 1  .... X n quand le nombre de variables, n, est grand.

Considérons n variables aléatoires X1,…, Xn , toutes suivant la même loi d'espérance 𝜇 et

42
𝑆𝑛
d'écart-type 𝜎, et intéressons-nous à la moyenne arithmétique M = de ces variables
𝑛

aléatoires . Un calcul simple donne l'espérance et la variance de M :

𝜎2
E(M) = 𝜇 et V(M) = .
𝑛

Si ε est strictement positif, on a, en vertu de l'inégalité de Tchebychev :

𝜎2
𝑃(|𝑀 − 𝜇| ≥ 𝜀) ≤ .
𝑛𝜀 2
On en déduit le théorème connu sous le nom de loi faible des grands nombres :

Théorème 1.1 Soit (Xn)n≥0 une suite de variables aléatoires indépendantes et de même loi,
d'espérance 𝜇 et d'écart-type 𝜎. Alors, pour tout a strictement positif :
𝑋1 +⋯+𝑋𝑛
lim 𝑃 (| − 𝜇| > 𝑎) = 0.
𝑛→ +∞ 𝑛

𝑋1 +⋯+𝑋𝑛
On dit que la suite ( )n≥0 converge en probabilité vers 𝜇.
𝑛

2 Convergence en loi

Définition 2.1 Soient (Xn) et X des variables aléatoires sur un même espace probabilité (Ω,P),
de fonctions de répartition respectives Fn et F ; on dit que les (Xn) convergent vers X en loi

(et on note 𝑋𝑛 → 𝑋) si en tout point x où F est continue, les Fn(x) convergent vers F(x).

Propriétés 2.1 (admises)


1) La convergence en probabilité entraîne la convergence en loi.
2) Si les (Xn) et X sont des variables aléatoires discrètes, alors Xn converge en loi vers X si et
seulement si
∀ 𝑥 ∈ ℝ, lim 𝑃(𝑋𝑛 = 𝑥) = 𝑃(𝑋 = 𝑥).
𝑛→+∞

Théorème Central Limite (TCL)

Théorème 2.1

Soit {X i } une suite de variables aléatoires indépendantes et identiquement distribuées, et


S n  n
  E( X i )   leur moyenne et  2  Var( X i )   . Soit S n  X 1  ...  X n . Alors
 n
tends en loi vers une variable aléatoire gaussienne de moyenne nulle et variance unitaire.

43
Théorème 2.2
Soient 𝑋1 , 𝑋2 , … , 𝑋𝑛 des variables aléatoires indépendantes de même loi de probabilité, de
même espérance mathématique 𝜇 et de même variance 𝜎 2 , lorsque n est
« suffisamment grand »,
 La loi de probabilité de 𝑆𝑛 = 𝑋1 + 𝑋2 + … + 𝑋𝑛 suit « approximativement » la loi
normale de moyenne 𝑛𝜇 d’écart type 𝜎√𝑛, notée N (𝑛𝜇, 𝜎√𝑛).
𝑆𝑛 𝜎
 La loi de probabilité de 𝑌𝑛 = suit « approximativement » la loi normale N (𝜇, ).
𝑛 √𝑛

Remarques

● Il fut établi par Liapounoff et Lindeberg.

● Il en résulte de la définition du (TCL) que pour tout t ∈ ℝ , la fonction de répartition


−𝑧 2
1 𝑡
Fn(t) = P(Zn < t) est telle que : 𝐹𝑛 (𝑡) → ∫ 𝑒 2 𝑑𝑧 quand n → ∞.
√2𝜋 −∞

● Le théorème central limite s’applique quel que soit la loi de probabilité suivie par les

variables aléatoires discrètes ou continues, pourvu que les épreuves soient indépendantes,

reproductibles et en très grand nombre.

● Grâce au théorème de la limite centrale, on peut voir que des phénomènes dont la variation
est engendrée par un nombre important de causes indépendantes sont généralement susceptibles
d’être représentés par une loi normale.

● A l’aide de la convergence en loi et du théorème central limite, il est possible de faire

l’approximation de certaines lois de probabilités par d’autres.

Nous listons dans cette sous-section des règles communément utilisées pour approcher des lois
de variables aléatoires par d'autres lois plus simples à calculer.

Loi de probabilité Approximation par la Mise en œuvre pratique


Loi hypergéométrique Loi binomiale 𝒏
≤ 𝟎, 𝟏
H (n, p, N) B (n, p) 𝑵

Loi binomiale Loi de poisson n ≥ 30 𝑒𝑡 𝑛𝑝 ≤ 5


B (n, p) P (np) ou
n ≥ 50 𝑒𝑡 𝒑 ≤ 𝟎, 𝟏

Loi binomiale Loi normale 𝒏𝒑 ≥ 𝟓 , 𝒏(𝟏 − 𝒑) ≥ 𝟓


B (n, p) N (np, √𝑛𝑝(1 − 𝑝) ) et 𝒏 ≥ 𝟑𝟎
ou npq≥ 9.
Loi de poisson Loi normale
P (λ) N (λ, √𝜆 ) 𝝀 > 𝟏𝟎

44
3. Lois d’échantillonnages

En statistique, il est général impossible d’étudier un caractère sur toute une population de taille
N élevée connue. On considère donc un échantillon d’effectif n puis on étudie le caractère sur
cet échantillon. On généralise les propriétés obtenues à partir de l’échantillon à la population.

Dans ce cas, les paramètres du caractère étudié dans la population sont connus et on en déduit
les propriétés sur l’ensemble des échantillons prélevés dans la population.

Nous n’envisagerons dans cette partie, que des échantillons aléatoires, c’est à dire que tout
élément de l’échantillon est choisi au hasard, et de plus, les choix sont indépendants car
supposés avec remise. L’ensemble des échantillons de taille n est appelé échantillonnage de
taille n. Nous allons étudier, dans ces conditions, la loi d’échantillonnage des moyennes et la
loi d’échantillonnage des fréquences.

3.1 Loi d’échantillonnage des moyennes

Etant donné une population de taille N et X une variable aléatoire définissant le caractère étudié
telle que : 𝐸(𝑋) = 𝜇 et 𝜎(𝑋) = 𝜎.

Pour prélever les échantillons de taille n, on procède à n épreuves indépendantes auxquelles


correspondent n variables aléatoires 𝑋1 , 𝑋2 , … , 𝑋𝑛 de même loi que 𝑋.
𝑋1 +𝑋2 +⋯+𝑋𝑛
La variable aléatoire 𝑌𝑛 = associe tout échantillon de taille n la moyenne de cet
𝑛
𝑋1 +𝑋2 +⋯+𝑋𝑛
échantillon. Quand n est suffisamment grand, la loi d’échantillonnage de 𝑌𝑛 = suit
𝑛
d’après le théorème centrale limite, approximativement une loi normale. On retrouve les valeurs
caractéristiques de cette loi en calculant 𝐸(𝑌𝑛 ) et 𝜎(𝑌𝑛 ) ∶

1 1
𝐸(𝑌𝑛 ) = (𝐸(𝑋1 ) + 𝐸(𝑋2 ) + ⋯ + 𝐸(𝑋𝑛 )) = (𝑛𝐸(𝑋)) = 𝐸(𝑋) = 𝜇.
𝑛 𝑛
1 1 2
𝜎 2 (𝑋)
𝑉(𝑌𝑛 ) = 2 (𝑉(𝑋1 ) + 𝑉(𝑋2 ) + ⋯ + 𝑉(𝑋𝑛 )) = 2 (𝑛𝜎 (𝑋)) = .
𝑛 𝑛 𝑛
𝜎
D’où 𝜎(𝑌𝑛 ) = .
√𝑛

A Retenir La loi d’échantillonnage de taille n de la moyenne Yn quand n devient grand


𝜎
(𝑛 ≥ 30) peut être approchée par loi normale N (𝜇, ).
√𝑛

3.2 Loi d’échantillonnage de la fréquence

On étudie, dans une population de taille N, un caractère à deux éventualités.

On considère la variable aléatoire :

45
𝑋 : Ω → {0, 1}
𝜔 ↦ 1 si 𝜔 possède le caractère (succès)
𝜔 ↦ 0 𝑠𝑖𝑛𝑜𝑛.

Alors 𝐸(𝑋) = 𝑝 (probabilité de succès) et 𝑉(𝑋) = 𝑝(1 − 𝑝).

Dans un échantillon de taille n, on répète n fois la même épreuve de manière indépendante. On


obtient n variables aléatoires 𝑋1 , 𝑋2 , … , 𝑋𝑛 de même loi que 𝑋.

On considère la variable aléatoire 𝑆𝑛 = 𝑋1 + 𝑋2 + … + 𝑋𝑛

𝐸(𝑆𝑛 ) = 𝑛𝐸(𝑋) = 𝑛𝑝 𝑒𝑡 𝑉(𝑆𝑛 ) = 𝑛𝑉(𝑋) = 𝑛𝑝(1 − 𝑝).


𝑆𝑛
La variable aléatoire, 𝑓𝑛 = associe à tout échantillon de taille n la fréquence de succès sur
𝑛
𝑆𝑛
cet échantillon. Quand n devient grand, la loi d’échantillonnage de 𝑓𝑛 = peut être approchée
𝑛
par une loi normale d’après le théorème de limite centrale.

On trouve les valeurs caractéristiques de cette loi en calculant :

1 1 𝑆𝑛 1 𝑝(1 − 𝑝)
𝐸(𝑓𝑛 ) = (𝐸(𝑆𝑛 )) = (𝑛𝑝) = 𝑝 𝑒𝑡 𝑉(𝑓𝑛 ) = 𝑉 ( ) = 2 (𝑉(𝑆𝑛 )) = .
𝑛 𝑛 𝑛 𝑛 𝑛

𝑝(1−𝑝)
D’où 𝜎(𝑓𝑛 ) = √ .
𝑛

A Retenir La loi d’échantillonnage de taille n de la fréquence 𝑓𝑛 quand n devient grand


𝑝(1−𝑝)
(𝑛 ≥ 50) peut être approchée par la loi normale de paramètres p et √ .
𝑛

46
Chapitre 5 Vecteurs aléatoires
Soit (Ω, 𝐸Ω , 𝑃) l'espace de probabilité associé à une certaine expérience aléatoire.
Un vecteur aléatoire est un vecteur (X1, X2,…, Xn) composé de variables aléatoires définies sur
le même espace de probabilité (Ω, 𝐸Ω , 𝑃).

Dans ce paragraphe, nous considérons le cas n = 2 ou les variables aléatoires sont de même
nature, les deux discrètes ou continues.

Exemples . 1) Expérience aléatoire : choisir un individu dans une population P, X : taille d’un
individu, Y : poids d’un individu.
2) Expérience aléatoire : 2 jets successifs d’un dé, X = nombre de points du 1er jet,
Y = somme des points.

Remarque. Un vecteur aléatoire (X, Y) est discret si X et Y sont des v.a. discrètes.
Un vecteur aléatoire (X, Y) est continu si X et Y sont des v.a. continues.

I. Couples aléatoires discrets

1. Loi conjointe d'un couple discret


On suppose que l'ensemble 𝑋(𝛺) (respectivement 𝑌(𝛺)) des valeurs de X (respectivement Y)
est indexé par une partie est indexé par une partie I (respectivement J) de IN.
On pourra par exemple écrire
𝑋(Ω) = {𝑥1 , … , 𝑥𝑛 } et 𝑌(Ω) = {𝑦1 , … , 𝑦𝑝 }.

Définition 1.1 Soit X et Y deux variables aléatoires discrètes définies sur un même univers Ω

𝑋:Ω →ℝ 𝑌:Ω → ℝ
𝜔↦𝑥 𝜔 ↦ 𝑦.

Le couple de variables aléatoires (X, Y) noté 𝑍 = (𝑋, 𝑌), est une variable aléatoire à valeurs
dans ℝ2

𝑍 ∶ Ω → ℝ2
𝜔 ↦ (𝑥, 𝑦).

Définition 1.2 Soient 𝑖 ∈ {1, 2, … , 𝑛} et 𝑗 ∈ {1, 2, … , 𝑚}. L’ensemble des couples


{(𝑥𝑖 , 𝑦𝑗 ), 𝑃 ((𝑋, 𝑌) = (𝑥𝑖 , 𝑦𝑗 ))}, constitue la loi de probabilité du couple de variables
aléatoires (X, Y) . La loi de probabilité du couple (X, Y) est appelée loi conjointe des variables
aléatoires X et Y.

Remarque Pour tout 𝑥𝑖 ∈ 𝑋(Ω) et 𝑦𝑗 ∈ 𝑌(Ω) on a :


𝑃 ((𝑋, 𝑌) = (𝑥𝑖 , 𝑦𝑗 )) = 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) = 𝑃 ((𝑋 = 𝑥𝑖 ) ∩ (𝑌 = 𝑦𝑗 )).

La loi de probabilité de (X, Y) peut être représentée dans un tableau appelé (tableau de
contingence). Dans ce tableau, nous notons 𝑝𝑖𝑗 = 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ),

47
𝑝𝑖 = ∑ 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) 𝑒𝑡 𝑞𝑗 = ∑ 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ).
𝑦𝑗 ∈𝑌(Ω) 𝑥𝑖 ∈𝑋(Ω)

Y
y1 y2 … yj … ym Total
X

x1 p11 p12 … p1j … p1m p1

x2 p21 p22 … p2j … p2m p2

… …

xi pi1 pi2 … pij … pim pi

… …

xn pn1 pn2 … pnj … pnm pn

Total q1 q2 … qj … qm 1

Propriétés 1.1

i) 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) ≥ 0, ∀(𝑥, 𝑦) ∈ 𝑋(Ω) × 𝑌(Ω).

ii) ∑𝑥∈𝑋(Ω) ∑𝑦∈𝑌(Ω) 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 1.

iii) 𝑃(𝑋 ∈ 𝐴, 𝑌 ∈ 𝐵) = ∑𝑥∈𝐴 ∑𝑦∈𝐵 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦), ∀𝐴 ⊂ 𝑋(Ω) et ∀𝐵 ⊂ 𝑌(Ω).

2. Fonction de répartition conjointe

Définition 2.1
La fonction de répartition conjointe de deux variables aléatoires définies sur une même
expérience aléatoire est par définition : F(x, y) = FX,Y (x, y) = P(X ≤ x , Y ≤ y) .

Dans le cas discret on a :


𝐹(𝑥, 𝑦) = ∑ ∑ 𝑃(𝑋 = 𝑢 , 𝑌 = 𝑣).
𝑢∈𝑋(Ω) 𝑣∈𝑌(Ω)
𝑢≤𝑥 𝑣≤𝑦

48
Exemple 1
On lance une pièce 3 fois et on note le résultat.
Soit X : le nombre total de PILE obtenus. Y : le nombre de PILE obtenus au premier lancer.
La loi conjointe de X et Y est donnée par le tableau suivant :

X 0 1 2 3
Y
0

Remplir le tableau, puis calculer 𝑃(𝑋 ≥ 1, 𝑌 < 1) et 𝑃(𝑋 ≤ 2).

Propriétés 2.1

(i) lim 𝐹(𝑥, 𝑦) = 0 et lim 𝐹(𝑥, 𝑦) = 0.


𝑥→−∞ 𝑦→−∞

(ii) lim 𝐹(𝑥, 𝑦) = 1.


𝑥→+∞,𝑦→+∞

(iii) P( x1  X  x2 ,Y  y)  FX ,Y ( x2 , y)  FX ,Y ( x1, y) .

Remarque
Les fonctions de répartition marginales sont données par les formules :

𝐹𝑋 (𝑥) = lim 𝐹𝑋,𝑌 (𝑥, 𝑦)


𝑦→+∞
𝐹𝑌 (𝑦) = lim 𝐹𝑋,𝑌 (𝑥, 𝑦).
𝑥→+∞

3. Distributions marginales
Pour étudier chacune des v.a. d'un vecteur aléatoire, on a recours aux distributions marginales.

Définition 3.1
Si (X, Y) est un vecteur aléatoire discret de loi conjointe p, alors les distributions marginales
sont :
𝑖) 𝑝𝑋 (𝑥) = ∑ 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦)
𝑦∈𝑌(Ω)
pour tout 𝑥 ∈ 𝑋(Ω) ;

𝑖𝑖) 𝑝𝑌 (𝑦) = ∑ 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦)


𝑥∈𝑋(Ω)
pour tout 𝑦 ∈ 𝑌(Ω).

Remarque
∑ 𝑝𝑋 (𝑥) = ∑ 𝑝𝑌 (𝑥) = 1.
𝑥∈𝑋(Ω) 𝑦∈𝑌(Ω)

49
Exemple 2
On lance une pièce 3 fois et on note le résultat. Soit X : le nombre total de PILE obtenus.
Y : le nombre de PILE obtenus au premier lancer.
Les distributions marginales peuvent être calculées en additionnant les lignes et les colonnes
du tableau suivant :

0 1 2 3 𝒑𝒀 (𝒚)
X
Y
0 1/8 2/8 1/8 0 4/8
1 0 1/8 2/8 1/8 4/8
𝒑𝑿 (𝒙) 1/8 3/8 3/8 1/8

Exercice
𝑖+𝑗
Soit un couple (X, Y) à valeurs entières tel que : ∀ 𝑖 ∈ ℕ, ∀𝑗 ∈ ℕ, 𝑃(𝑋 = 𝑖, 𝑌 = 𝑗) = 𝑎 𝑖!𝑗! . 
a) Calculer la constante a.
b) Calculer les lois marginales de X et Y.

Remarque
La donnée de la loi du couple (X, Y) permet donc de connaitre les lois de X et de Y.

Attention! La réciproque est fausse : la connaissance des lois marginales ne suffit pas en
général pour reconstituer la loi du couple. Deux couples de lois conjointes différentes peuvent
avoir des lois marginales identiques.

4. Variable aléatoire fonction d'un couple discret


4.1 Loi de 𝜑(X, Y)

On peut comme en dimension 1 introduire par composition d'applications une variable


aléatoire fonction de deux autres variables aléatoires.

Exemples : 𝑇 = 𝑋 + 𝑌, 𝑈 = 𝑋𝑌, 𝑉 = 𝑚𝑎𝑥 (𝑋, 𝑌).

Proposition 4.1 (admise)


Si (X, Y) est un couple discret, et si 𝜑 est une fonction quelconque de 𝑋(Ω) × Y(Ω) dans ℝ,
alors T = 𝜑(X, Y) est une variable aléatoire discrète.

Posons 𝑧 = 𝜑(𝑥, 𝑦), ∀𝑥 ∈ 𝑋(Ω) 𝑒𝑡 ∀𝑦 ∈ 𝑌(Ω). On obtient une famille finie ou dénombrable
de réels.
On pose alors
𝑃(𝜑(𝑋, 𝑌) = 𝑧) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦).
{𝜑(𝑥,𝑦)=𝑧}

La famille { (𝑧 ; 𝑃(𝜑(𝑋, 𝑌) = 𝑧)), définit la loi de 𝑍 = 𝜑(𝑋, 𝑌).

50
4.2 Somme de deux variables aléatoires
On a
𝑃(𝑋 + 𝑌 = 𝑧) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦).
{𝑥+𝑦=𝑧}

Remarque
Soient X et Y deux v.a. à valeurs dans ℕ. On pose S = X + Y. Alors S prend des valeurs
entières, et pour tout entier k :
𝒌

𝑷(𝑺 = 𝒌) = ∑ 𝑷(𝑿 = 𝒊, 𝒀 = 𝒌 − 𝒊).


𝒊=𝟎

Exemple : Soit (X, Y) un couple discret dont la loi conjointe est donnée par :
𝑿(𝛀) = 𝒀(𝛀) = ℕ
{ 𝟏 𝒊+𝒋
∀𝒊 ∈ ℕ, ∀𝒋 ∈ ℕ, 𝑷(𝑿 = 𝒊, 𝒀 = 𝒋) = 𝟐 .
𝟐𝒆 𝒊! 𝒋!

Trouver la loi de 𝑆 = 𝑋 + 𝑌.

4.3 Différence de deux variables aléatoires

Soit X et Y deux variables aléatoires. La différence 𝑋 – 𝑌 est une variable aléatoire notée D.
La loi de probabilité de D est obtenue en associant, à chaque valeur d de D, la somme des
probabilités correspondant à tous les couples dont la différence des termes est égale à d.

On a
𝑃(𝑋 − 𝑌 = 𝑑) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦).
{𝑥−𝑦=𝑑}

4.4 Produit de deux variables aléatoires

Soit X et Y deux variables aléatoires. Le produit 𝑋𝑌 est une variable aléatoire notée Z.
La loi de probabilité de Z est obtenue en associant, à chaque valeur 𝑧 de Z, la somme des
probabilités correspondant à tous les couples dont le produit des termes est égale à 𝑧.

On a
𝑃(𝑋𝑌 = 𝑧) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦).
{𝑥𝑦=𝑧}

4.5 Théorème (Théorème de transfert discret (admis))


La v.a. discrète 𝜑(X, Y) a une espérance si et seulement si
∑ ∑|𝜑(𝑥𝑖 , 𝑦𝑗 )| 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) < ∞.
𝑖∈𝐼 𝑗∈𝐽
On a alors,
𝐸(𝜑(𝑋, 𝑌)) = ∑ ∑ 𝜑(𝑥𝑖 , 𝑦𝑗 ) 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ).
𝑖∈𝐼 𝑗∈𝐽

51
Espérance et variance de X et Y
En utilisant les distributions marginales pour le vecteur aléatoire (X, Y), on peut calculer
l'espérance et la variance des v.a. individuelles X et Y.

𝐸(𝑋) = ∑𝑥∈𝑋(Ω) 𝑥 𝑝𝑋 (𝑥) et 𝐸(𝑌) = ∑𝑦∈𝑌(Ω) 𝑦 𝑝𝑌 (𝑦).

𝑉(𝑋) = ∑ 𝑥 2 𝑝𝑋 (𝑥) − (𝐸(𝑋))2 𝑒𝑡


𝑥∈𝑋(Ω)

𝑉(𝑌) = ∑ 𝑦 2 𝑝𝑌 (𝑦) − (𝐸(𝑌))2 .


𝑦∈𝑌(Ω)

Exemple. On lance une pièce 3 fois et on note le résultat. Soit X : le nombre total de PILE
obtenus. Y : le nombre de PILE obtenus au premier lancer.

X 0 1 2 3 𝒑𝒀 (𝒚)
Y
0 1/8 2/8 1/8 0 4/8
1 0 1/8 2/8 1/8 4/8
𝒑𝑿 (𝒙) 1/8 3/8 3/8 1/8

Calculer 𝐸(𝑋), 𝑉(𝑋), 𝐸(𝑌), 𝑒𝑡 𝑉(𝑌).

II. Couples aléatoires continus


En dimension 1, on remarque que lorsqu'on passe des v.a. discrètes aux v.a. continues, dans les
calculs les sommes (finies ou non) sont remplacées par des intégrales. On a vu que les calculs
relatifs aux couples discrets font intervenir des sommes doubles. On doit donc s'attendre à ce
que les calculs relatifs aux couples continus nécessitent des intégrales doubles.

1. Densité conjointe

Définition 1.1 On appelle fonction de densité sur ℝ𝟐 une fonction f de ℝ𝟐 dans ℝ ayant les
propriétés suivantes :
i) f est positive,
ii) - ou bien f est continue sur ℝ𝟐 ,
- ou bien il existe un domaine D de ℝ𝟐 tel que f est continue sur D, et nulle sur le
complémentaire de D,
iii) ∬𝐷 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1

Propriété 1.1 Le couple aléatoire (X, Y) est dit continu ou à densité s'il existe une fonction f
ayant les trois propriétés ci-dessus telle que :
𝑥 𝑦
𝟐
∀ (𝑥, 𝑦) ∈ ℝ , 𝑃(𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦) = ∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣 .
−∞ −∞
f est une densité de probabilité du couple (X, Y).

Exemples de fonctions de densités (à vérifier en exercice)

52
●𝑓(𝑥, 𝑦) = 1[0,1]2 (𝑥, 𝑦): on dit que (X, Y) suit la loi uniforme sur [0, 1] × [0, 1].

●𝒇(𝒙, 𝒚) = (𝒙 + 𝒚)𝟏{𝟎≤𝒙≤𝟏,𝟎≤𝒚≤𝟏} .

● 𝒇(𝒙, 𝒚) = 𝟐𝒆−(𝒙+𝟐𝒚) 𝟏𝑰𝑹𝟐+ (𝒙, 𝒚).

b) Fonction de répartition et loi d'un couple continu

Définition 1.2
La fonction de répartition du couple (X, Y) est définie par :

∀ (𝑥, 𝑦) ∈ ℝ𝟐 , 𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝑃(𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦)


𝑦 𝑥 𝑥 𝑦
= ∫ [∫ 𝑓(𝑢, 𝑣)𝑑𝑢] 𝑑𝑣 = ∫ [∫ 𝑓(𝑢, 𝑣)𝑑𝑣] 𝑑𝑢.
−∞ −∞ −∞ −∞

Remarques : i) On obtient la densité conjointe d'un couple continu en dérivant deux fois (en
x et en y) sa fonction de répartition conjointe en tout point où cela est possible.
L'ordre de dérivation n'a pas d'importance :
𝑑2 𝐹𝑋,𝑌 (𝑥, 𝑦)
𝑓𝑋,𝑌 (𝑥, 𝑦) = .
𝑑𝑥𝑑𝑦

ii) D'après le théorème de Schwarz, en tout point (x, y) où les dérivées partielles secondes
sont continues, on a :

𝜕 2 𝐹𝑋,𝑌 (𝑥, 𝑦) 𝜕 2 𝐹𝑋,𝑌 (𝑥, 𝑦)


= .
𝜕𝑦𝜕𝑥 𝜕𝑥𝜕𝑦

Remarques.

i) Pour tout ouvert B de ℝ𝟐 , on a :

𝑃[(𝑋, 𝑌) ∈ 𝐵] = ∬ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∬ 𝑓(𝑥, 𝑦)1𝐵 (𝑥, 𝑦)𝑑𝑥𝑑𝑦.


ℝ𝟐
𝐵
ii) On peut également écrire
𝑏 𝑑
𝑃((𝑎 < 𝑋 ≤ 𝑏) ∩ (𝑐 ≤ 𝑌 ≤ 𝑑)) = 𝑃((𝑋, 𝑌) ∈ ]𝑎, 𝑏] × [𝑐, 𝑑]) = ∫ ∫ 𝐹𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦.
𝑎 𝑐

Exercice
● Pour (X, Y) de densité 𝑓(𝑥, 𝑦) = (𝑥 + 𝑦)1{0≤𝑥≤1, 0≤𝑦≤1} ; calculer 𝑃(𝑋 > 1/2, 𝑌 > 1/2).

● Pour (X, Y) de densité 𝑓(𝑥, 𝑦) = 𝑒 −𝑦 1𝐼𝑅+ (𝑥)1[𝑥,+∞[ (𝑦) ; calculer 𝑃(𝑋 + 𝑌 ≤ 1).
● Soit (X, Y ) un couple dont la loi conjointe est une loi uniforme sur [0, 1] × [0, 1]
1 𝑠𝑖 (𝑥, 𝑦) ∈ [0,1] × [0,1]
𝑓(𝑥, 𝑦) = { .
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠

53
Soit D = {(x, y) ∈ ℝ2 : x > 0, y > 0 et x + y < 1}.
Calculer P((X, Y ) ∈ D).

2. Densité marginale

On peut récupérer la densité de probabilité de chacune des variables aléatoires conjointement


distribuées à partir de leur densité conjointe.

Définition 2.1

La densité marginale fX de X est la fonction : x  f X ( x)  f

X ,Y ( x, y)dy .

De même, la densité marginale fY de Y est la fonction : y  fY ( y)  f

X ,Y ( x, y)dx.

Remarques
● Comme dans le cas discret, la connaissance des densités marginales ne suffit pas en
général pour reconstituer la densité du couple.
● Si le couple (X, Y) a une densité, les v.a. réelles X et Y sont des v.a. à densité, mais la
réciproque est fausse.

Exemple. Soit la fonction densité conjointe 𝑓(𝑥, 𝑦) = 𝑦𝑒 −(𝑥+𝑦) 1𝐼𝑅+ (𝑥)1𝐼𝑅+ (𝑦).
Déterminer les densités marginales fX et fY.

Exercice
2 2 [−1, 1] 𝑒𝑡 𝑦 ∈ [−1, 0]
Soit 𝑓(𝑥, 𝑦) = {𝑘𝑥 + 𝑦 − 𝑥𝑦 , 𝑥 ∈
0 𝑠𝑖𝑛𝑜𝑛

a) Déterminer k pour que f soit effectivement une fonction densité d’un couple (X, Y ).
b) Calculer P[{0 < X < 1} ∩{−1/2 < Y < 0}].
c) Déterminer les fonctions de densité marginales.
d) Déterminer la fonction de répartition conjointe.

Théorème (Théorème de transfert cas continue)


Soit 𝜑 une fonction réelle continue sur ℝ𝟐 et (X, Y) un couple de variables aléatoires réelles.
La variable aléatoire 𝜑(𝑋, 𝑌) a une espérance si et seulement si
+∞ +∞
∫−∞ ∫−∞ |𝜑(𝑥, 𝑦)| 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 < +∞ et on a :
+∞ +∞
𝐸(𝜑(𝑋, 𝑌)) = ∫ ∫ 𝜑(𝑥, 𝑦)𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦.
−∞ −∞

3. Couple aléatoire fonction d'un couple continu

Proposition 3.1 (admise)


Soit (X, Y) un couple continu de densité f, et D’ un domaine ouvert de ℝ𝟐 .
Si 𝜙 est une application de D dans ℝ𝟐 continue sur D, alors ϕ(X, Y) est un couple aléatoire.

L'application ϕ est définie par : ϕ(x, y) = (𝜑(x, y), (𝜓(x, y))


On a donc : ϕ(X, Y) = (U, V) avec U = 𝜑(X, Y) et V = 𝜓(X, Y).

54
La loi de (X, Y) étant connue, on cherche la loi du couple (U, V).

Définitions et propriétés
Soient D1 et D2 deux ouverts de ℝ𝟐 .

i) Φ est continûment différentiable sur D1 si les fonctions 𝜑 𝑒𝑡 𝜓 admettent en tout


point de D1des dérivées partielles premières continues.

ii) est un C 1 - difféomorphisme de D1 sur D2 si :


Φ 𝑒𝑠𝑡 𝑐𝑜𝑛𝑡𝑖𝑛û𝑚𝑒𝑛𝑡 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑡𝑖𝑎𝑏𝑙𝑒 𝑠𝑢𝑟 𝐷1 ,
{ Φ 𝑒𝑠𝑡 𝑏𝑖𝑗𝑒𝑐𝑡𝑖𝑣𝑒 𝑑𝑒 𝐷1 𝑠𝑢𝑟 𝐷2 ,
−1
Φ 𝑒𝑠𝑡 𝑐𝑜𝑛𝑡𝑖𝑛û𝑚𝑒𝑛𝑡 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑡𝑖𝑎𝑏𝑙𝑒 𝑠𝑢𝑟 𝐷2 .

● Le jacobien de est le déterminant de la matrice jacobienne :

𝜕𝜑 𝜕𝜑
(𝑥, 𝑦) (𝑥, 𝑦)
𝜕𝑥 𝜕𝑦
𝐽Φ (𝑥, 𝑦) = 𝑑é𝑡 .
𝜕𝜓 𝜕𝜓
(𝑥, 𝑦) (𝑥, 𝑦)
( 𝜕𝑥 𝜕𝑦 )

Formule du changement de variable

Théorème 3.1 Soit un C 1- difféomorphisme d'un ouvert U sur un ouvert V de ℝ𝟐 , et un


sous-ensemble
de U dont la frontière est une courbe continue. Soit k une fonction continue sur ( ).
Si l'une des deux intégrales ci-dessous existe, l'autre existe aussi et elles sont égales :

∫ 𝑘(Φ(𝑥, 𝑦))|𝐽Φ (𝑥, 𝑦)|𝑑𝑥𝑑𝑦 = ∫ 𝑘(𝑢, 𝑣)𝑑𝑢𝑑𝑣.


Δ Φ(Δ)

Rappel de la formule de changement de variable en dimension 1 :


Soit 𝜑 une bijection de classe C1 définie sur le segment [a, b], et soit k une fonction
continue sur le segment 𝜑([a, b]). On pose α = 𝜑(a) et β = 𝜑(b).
On a :
𝛽 𝑏
∫𝛼 𝑘(𝑢)𝑑𝑢 = ∫𝑎 𝑘(𝜑(𝑥))𝜑 ′ (𝑥)𝑑𝑥.

A retenir : De même qu'en dimension 1, on remplace u par 𝜑(x) dans l'expression dela fonction
k et formellement du par 𝜑'(x)dx, en dimension 2, pour passer des variables (u, v) aux variables
(x, y), on remplace u et v par leur expression en fonction de x et y dans la fonction à intégrer et
on remplace formellement dudv par |𝐽Φ (𝑥, 𝑦)|dxdy.

Il ne faut surtout pas oublier de modifier le domaine sur lequel on intègre, de même qu'en
dimension 1, lorsqu'on fait un changement de variable il faut modifier les bornes de l'intégrale.
Le but du changement de variable est de transformer une intégrale double compliquée en une
plus simple à calculer ; il arrive fréquemment que par un changement de variable bien choisi,
on se ramène à une fonction à variables séparables à intégrer sur un pavé.

55
Exemple. Cordonnées polaires
Soit Φ l'application de ℝ+ × [0,2𝜋] dans ℝ𝟐 définie par : (u, v) = Φ(𝜌, 𝜃) avec
𝑢 = 𝜌𝑐𝑜𝑠(𝜃)
{ .
𝑣 = 𝜌𝑠𝑖𝑛(𝜃)
On a, 𝐽Φ (𝜌, 𝜃) = 𝜌 d'où

∬ 𝑘(𝑢, 𝑣)𝑑𝑢𝑑𝑣 = ∬ 𝑘(𝜌𝑐𝑜𝑠𝜃, 𝜌𝑠𝑖𝑛𝜃)𝜌𝑑𝜌𝑑𝜃


Φ(𝐷) 𝐷

A retenir : Lorsque le changement de variable consiste à passer des coordonnées


cartésiennes (u, v) aux coordonnées polaires (𝜌, 𝜃), on remplace u par 𝜌cos𝜃, v par
𝜌sin𝜃, et dudv par 𝜌d𝜌d𝜃.
+∞ 2 ⁄2
Application : Montrer que ∫−∞ 𝑒 −𝑢 𝑑𝑢 = √2𝜋.

Théorème 3.2 Soit (X, Y) un couple de v.a.r. densité f à partir de laquelle on définit le
domaine D. Soit un C1-difféomorphisme défini sur D (on peut sans restreindre la généralité
supposer D ouvert). Alors le couple aléatoire (U, V) = (X, Y) admet une densité sur ℝ𝟐 .

Remarque. Pour déterminer une densité de (U, V), on cherche donc une fonction g telle que,
pour toute fonction h continue bornée sur ℝ𝟐 , on ait :
+∞ +∞
𝐸(ℎ(𝑈, 𝑉)) = ∫−∞ ∫−∞ ℎ(𝑢, 𝑣)𝑔(𝑢, 𝑣)𝑑𝑢𝑑𝑣.
Or

𝐸(ℎ(𝑈, 𝑉)) = 𝐸[ℎ(Φ(𝑋, 𝑌))] = 𝐸[ℎ ∘ Φ(𝑋, 𝑌)]

+∞ +∞
=∫ ∫ ℎ ∘ Φ(𝑥, 𝑦)𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞

= ∬ ℎ[Φ(𝑥, 𝑦)]𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦


𝐷

On applique la formule de changement de variables et on obtient :

∬ ℎ[Φ(𝑥, 𝑦)]𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∬ ℎ(𝑢, 𝑣)𝑓(Φ−1 (𝑢, 𝑣))|𝐽Φ−1 (𝑢, 𝑣)|𝑑𝑢𝑑𝑣.


𝐷 Φ(D)

D'où une expression de la densité cherchée g :

−1 (𝑢,
𝑣))|𝐽Φ−1 (𝑢, 𝑣)| 𝑠𝑖 (𝑢, 𝑣) ∈ Φ(𝐷)
𝑔(𝑢, 𝑣) = {𝑓(Φ
0 𝑠𝑖𝑛𝑜𝑛
Exercice
1
Soit (X, Y) un couple de densité f avec 𝑓(𝑥, 𝑦) = 𝑥 2 𝑦 2 1[1,+∞[ (𝑥)1[1,+∞[ (𝑦).

1
𝑈=𝑋
Déterminer la densité du couple (U, V) où { 𝑋 .
𝑉=𝑌

56
III. Lois conditionnelles - Variables aléatoires indépendantes

1 - Lois conditionnelles d'un couple discret- Espérances conditionnelles

1.1. Loi conditionnelle de X sachant (Y = y)

Définitions 1.1 Si (X, Y) est un vecteur aléatoire discret, de loi conjointe P(X=x, Y=y), alors
on définit les fonctions de loi conditionnelles par

𝑃(𝑋=𝑥,𝑌=𝑦)
i) 𝑃(𝑋 = 𝑥|𝑌 = 𝑦) = si 𝑃(𝑌 = 𝑦) ≠ 0
𝑃(𝑌=𝑦)
pour tout 𝑥 ∈ 𝑋(Ω).
𝑃(𝑋=𝑥,𝑌=𝑦)
ii) 𝑃(𝑌 = 𝑦|𝑋 = 𝑥) = si 𝑃(𝑋 = 𝑥) ≠ 0
𝑃(𝑋=𝑥)
pour tout 𝑦 ∈ 𝑌(Ω).

Remarque. On a,

∀ 𝑥 ∈ 𝑋(Ω), ∑𝑥∈𝑋(Ω) 𝑃(𝑋 = 𝑥|𝑌 = 𝑦) = 1 et ∀ 𝑦 ∈ 𝑌(Ω), ∑𝑦∈𝑌(Ω) 𝑃(𝑌 = 𝑦|𝑋 = 𝑥) = 1.

Exemple On lance une pièce 3 fois et on note le résultat.


Soit X : le nombre total de PILE obtenus.
Y : le nombre de PILE obtenus au premier lancer.

X 0 1 2 3 PY(y)
Y
0 1/8 2/8 1/8 0 4/8
1 0 1/8 2/8 1/8 4/8
𝒑𝑿 (𝒙) 1/8 3/8 3/8 1/8

Calculer les distributions conditionnelles𝑃(𝑋 = 𝑥|𝑌 = 1) et 𝑃(𝑌 = 𝑦|𝑋 = 2).

Remarques
i) Dans le cas discret, il y a autant de distributions conditionnelles de X qu'il y a de valeurs
possibles pour Y (et vice-versa).
ii) En général on a

𝑃(𝑋 ∈ 𝐴, 𝑌 ∈ 𝐵)
𝑃(𝑋 ∈ 𝐴|𝑌 ∈ 𝐵) =
𝑃(𝑌 ∈ 𝐵)
et

𝑃(𝑋 ∈ 𝐴, 𝑌 ∈ 𝐵)
𝑃(𝑌 ∈ 𝐵|𝑋 ∈ 𝐴) = .
𝑃(𝑋 ∈ 𝐴)

Généralisation de la formule des probabilités totales :

57
iii) 𝑃(𝑌 ∈ 𝐵) = ∑𝑥∈𝑋(Ω) 𝑃(𝑌 ∈ 𝐵|𝑋 = 𝑥)𝑃(𝑋 = 𝑥).

1.2. Espérance conditionnelle de X sachant Y (Y variable aléatoire)

Définition 1.2 Soit (X, Y)un vecteur aléatoire discret de loi conjointe P(X=x, Y=y).
L'espérance conditionnelle de l'une des variables lorsque l'autre est fixée est :

i) 𝐸(𝑋|𝑌 = 𝑦) = ∑𝑥∈𝑋(𝛺) 𝑥 𝑃(𝑋|𝑌 = 𝑦).

ii) 𝐸(𝑌|𝑋 = 𝑥) = ∑𝑦∈𝑌(𝛺) 𝑦 𝑃(𝑌|𝑋 = 𝑥).

Remarque
𝑖) 𝐸(𝑋|𝑌 = 𝑦)est l'espérance de la v.a. X calculé par rapport à la loi conditionnelle de X
sachant Y = y.
𝑖𝑖) 𝐸(𝑋|𝑌 = 𝑦) existe pour tout y ∈Y(Ω) si E(X) existe et si P(Y = y) > 0 pour tout y de
Y(Ω).
iii) Notons que 𝐸(𝑋|𝑌 = 𝑦) est une fonction de y et que 𝐸(𝑌|𝑋 = 𝑥)est une fonction de x.

Exemple On lance une pièce 3 fois et on note le résultat. Soit X : le nombre total de PILE
obtenus. Y : le nombre de PILE obtenus au premier lancer.

X 0 1 2 3 PY(y)
Y
0 1/8 2/8 1/8 0 4/8
1 0 1/8 2/8 1/8 4/8
𝒑𝑿 (𝒙) 1/8 3/8 3/8 1/8

Calculer les distributions conditionnelles𝐸(𝑋|𝑌 = 0) et 𝐸(𝑌|𝑋 = 2).

Exemple
Si elle existe, calculer E(X|𝑌) dans le cas suivant :

𝑿(𝛀) = 𝒀(𝛀) = 𝑰𝑵
{ 𝟏 𝒊+𝒋.
∀𝒊 ∈ 𝑰𝑵, ∀𝒋 ∈ 𝑰𝑵, 𝑷(𝑿 = 𝒊, 𝒀 = 𝒋) = 𝟐𝒆𝟐 𝒊!𝒋!

2 - Lois conditionnelles d'un couple continu - Espérances conditionnelles


Soit (X, Y) un couple continu de densité conjointe f. On note fX et fY les densités marginales
de X et de Y.
2.1. Densité conditionnelle de X sachant Y = y

Définition. Pour tout réel y tel que 0 < fY(y) <+∞, on appelle densité conditionnelle de X
sachant que Y = y la fonction de la variable x paramétrée par y, notée 𝑓𝑋|𝑌=𝑦 :
𝑓(𝑥,𝑦)
𝑥 ↦ 𝑓𝑋|𝑌=𝑦 (𝑥) = .
𝑓𝑌 (𝑦)
Cette fonction 𝑓𝑋|𝑌=𝑦 est bien une fonction de densité.

58
Exemple
Soit un couple (X, Y) dont la densité conjointe est : f(x, y) = 𝑓(𝑥, 𝑦) = 6𝑥1𝐷 (𝑥, 𝑦)avec
𝐷 = {(𝑥, 𝑦) ∈ 𝐼𝑅 2 ; 𝑥 ≥ 0, 𝑦 ≥ 0, 𝑥 + 𝑦 ≤ 1}.
Calculer la densité conditionnelle de X sachant que Y = y, en précisant pour quelles valeurs de
y elle existe.

2.1. Espérance conditionnelle de X sachant Y = y.

Définition 2.1
Pour tout réel y tel que 0 < fY(y) <+∞, on appelle espérance conditionnelle de X sachant
+∞
Y= y le réel (s'il existe) : 𝐸(𝑋|𝑌 = 𝑦) = ∫−∞ 𝑥𝑓𝑋|𝑌=𝑦 (𝑥)𝑑𝑥.

Remarque. Pour que E(X|𝑌 = 𝑦) existe, il suffit que E(X) existe.

Exemples Si elle existe, calculer E(X|𝑌) dans les cas suivants :


i)𝑓(𝑥, 𝑦) = 6𝑥1𝐷 (𝑥, 𝑦)avec𝐷 = {(𝑥, 𝑦) ∈ 𝐼𝑅 2 ; 𝑥 ≥ 0, 𝑦 ≥ 0, 𝑥 + 𝑦 ≤ 1}.
ii) Y suit la loi continue uniforme sur [0, 1] et une densité conditionnelle de X sachant Y=y
est 𝑥 ↦ 𝑓𝑋|𝑌=𝑦 (𝑥) = 𝑦1[0,1⁄𝑦] (𝑥).

Propriétés 2.1
i) Si X=a une constante, alors E(X|𝑌 = 𝑦) = 𝑎.
ii)∀ 𝛼, 𝛽 ∈ 𝐼𝑅, 𝐸(𝛼𝑋1 + 𝛽𝑋2 |𝑌 = 𝑦) = 𝛼𝐸(𝑋1 |𝑌 = 𝑦) + 𝛽𝐸(𝑋2 |𝑌 = 𝑦). (linéarité)
iii) Si 𝑋 ≥ 0, alors 𝐸(𝑋|𝑌 = 𝑦) ≥ 0 et si 𝑋1 ≤ 𝑋2 alors 𝐸(𝑋1 |𝑌 = 𝑦) ≤ 𝐸(𝑋2 |𝑌 = 𝑦).
(croissance)

3. Couple de variables aléatoires indépendantes

3.1. Cas discret

Définition 3.1 Les deux variables du vecteur discret (X, Y) sont indépendantes si
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑃(𝑋 = 𝑥) × 𝑃(𝑌 = 𝑦) pour tout 𝑥 ∈ 𝑋(Ω) et pour tout 𝑦 ∈ 𝑌(Ω).

Exemple. Une urne contient a boules noires et b boules blanches (a et b entiers non nuls). On
tire 2 fois une boule, et pour i = 1, 2, on note Xi la variable de Bernoulli qui vaut 1 si la boule
tirée au i-ème tirage est blanche, et 0 sinon.
X1 et X2 sont indépendantes si le tirage se fait avec remise.
X1 et X2 ne sont pas indépendantes si le tirage se fait sans remise.

Remarque. Pour vérifier l'indépendance de deux v.a. dont on connaît la loi conjointe, il n'est
pas indispensable de calculer leurs lois marginales. Il suffit de regarder si l'expression donnant
P(X = x, Y = y) peut s'écrire comme le produit d'une fonction de x par une fonction de y.

Exercice. On lance une pièce 3 fois et on note le résultat. Soit X : le nombre total de PILE
obtenus.Y : le nombre de PILE obtenus au premier lancer.

59
X 0 1 2 3 PY(y)
Y
0 1/8 2/8 1/8 0 4/8
1 0 1/8 2/8 1/8 4/8
𝒑𝑿 (𝒙) 1/8 3/8 3/8 1/8

Etudier l'indépendance des variables aléatoires X et Y.

Exercice Soit (X, Y) un couple discret dont la loi conjointe est donnée par :

𝑿(𝛀) = 𝒀(𝛀) = 𝑰𝑵
𝒊) { 𝟏 𝟏
∀𝒊 ∈ 𝑰𝑵, ∀𝒋 ∈ 𝑰𝑵, 𝑷(𝑿 = 𝒊, 𝒀 = 𝒋) = 𝟐
𝒆 𝒊! 𝒋!

𝑿(𝛀) = 𝒀(𝛀) = 𝑰𝑵
𝒊𝒊) { 𝟏 𝒊+𝒋
∀𝒊 ∈ 𝑰𝑵, ∀𝒋 ∈ 𝑰𝑵, 𝑷(𝑿 = 𝒊, 𝒀 = 𝒋) = 𝟐
𝟐𝒆 𝒊! 𝒋!

Etudier l'indépendance de X et Y.

Remarques.
● Si X et Y sont des variables aléatoires indépendantes alors on peut déterminer leur
distribution conjointe à l'aide des distributions marginales des v.a. de X et Y en faisant le
produit de celles-ci.
● Ce n'est pas le cas si X et Y ne sont pas indépendantes.

3.2. Cas continu

Définition 3.2 Soit (X, Y) est un couple continu de densité f, les variables aléatoires X et Y
sont indépendantes si et seulement si

x  X (), y  Y (); f X ,Y ( x, y)  f X ( x) fY ( y).

On dit que la loi du couple est le produit tensoriel des lois marginales.

Remarques : Dans le cas d'un couple continu, si la densité f(x, y) peut s'écrire comme le
produit d'une fonction de densité de x par une fonction de densité de y, alors X et Y sont
indépendantes.
𝑥
Exercice. Soit 𝑓(𝑥, 𝑦) = 1[0,1] (𝑥)1]0,1[ (𝑦) la densité conjointe du couple de v.a. (X, Y).
√𝑦
Déterminer les lois marginales 𝑓𝑋 𝑒𝑡 𝑓𝑌 .

Attention
Si 𝑓(𝑥, 𝑦) = 6𝑥1𝐷 (𝑥, 𝑦)avec𝐷 = {(𝑥, 𝑦) ∈ ℝ2 ; 𝑥 ≥ 0, 𝑦 ≥ 0, 𝑥 + 𝑦 ≤ 1}, alors X et Y ne
sont pas indépendantes parce que 1D (x, y) ne peut pas s'écrire comme le produit d'une
indicatrice en x par une indicatrice en y. (D n'est pas un pavé).

60
Propriété 3.2
Soient deux variables X et Y indépendantes.
Soient deux couples réels (a, b) et (c, d) tels que a ≤ b et c ≤ d (avec éventuellement a ou
c = -∞, b ou d= +∞). On a :𝑃(𝑎 ≤ 𝑋 ≤ 𝑏, 𝑐 ≤ 𝑌 ≤ 𝑑) = 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) × 𝑃(𝑐 ≤ 𝑌 ≤ 𝑑).

Remarque. On a des relations analogues en changeant certaines inégalités larges en inégalités


strictes.
En particulier : Si (a, b) = ]-∞, x] et (c, d) = ]-∞, y] la relation ci-dessus s'écrit :
∀𝑥 ∈ ℝ, ∀𝑦 ∈ 𝐼𝑅 ; 𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝐹𝑋 (𝑥)𝐹𝑌 (𝑦). La fonction de répartition du couple est le
produit tensoriel des fonctions de répartition de X et Y.

Propriété 3.3 Soit (X, Y) un couple aléatoire. Les conditions suivantes sont équivalentes :
i) Les variables X et Y sont indépendantes.
ii) La loi conditionnelle de X sachant Y = y est la loi de X, pour tout y tel que cette loi
conditionnelle est définie.
iii) La loi conditionnelle de Y sachant X = x est la loi de Y, pour tout x tel que cette loi
conditionnelle est définie.

Théorème 3.1 Si X et Y sont indépendantes, et si X a une espérance, alors 𝐸(𝑋|𝑌) = 𝐸(𝑋).

4. Somme de deux variables aléatoires indépendantes

4.1. Somme de v.a. indépendantes à valeurs discrètes


On se limite ici au cas particulier des v.a. discrètes à valeurs dans ℕ, ce qui recouvre toutes les
lois discrètes usuelles.

Théorème 4.1 Soient (X, Y) un couple de v.a. discrètes indépendantes à valeurs dans ℕ.
On pose S = X + Y, alors S prend des valeurs entières, et pour tout entier k :
𝒌 𝒌

𝑷(𝑺 = 𝒌) = ∑ 𝑷(𝑿 = 𝒊, 𝒀 = 𝒌 − 𝒊) = ∑ 𝑷(𝑿 = 𝒌 − 𝒋, 𝒀 = 𝒋).


𝒊=𝟎 𝒋=𝟎

Corollaire 4.1

i) Soit X et Y deux variables indépendantes telles que X  B(n1 , p) ; Y  B(n2 , p) alors

X  Y  B  n1  n2 , p  .

ii) Soit X et Y deux variables indépendantes avec X  P( ) et Y  P(  ) alors


X+Y  P(   ) .
iii) Si X et Y sont deux v.a. indépendantes de lois de Chi-deux 𝜒 2 (𝑛) et 𝜒 2 (𝑚), alors X +Y
suit la loi de Chi-deux 𝜒 2 (𝑛 + 𝑚).

Remarques. On dit que, sous l'hypothèse d'indépendance, les lois binomiales, de Poisson et
de Chi-deux respectivement sont stables pour la somme.
Par récurrence, cette propriété de stabilité se généralise à des sommes finies.

4.2. Somme de v.a. indépendantes à valeurs continues


De même que dans le cas discret, il existe des lois continues stables.

61
Théorème Soit (X, Y) un couple de v.a. indépendantes de densités respectives f et g.
Alors la somme S = X + Y a une densité h définie par :
+∞ +∞
𝒉(𝒔) = ∫ 𝒇(𝒙)𝒈(𝒔 − 𝒙)𝒅𝒙 = ∫ 𝒇(𝒔 − 𝒚)𝒈(𝒚)𝒅𝒚.
−∞ −∞
La fonction h s'appelle produit de convolution des fonctions f et g.

Attention ! Dans le calcul du produit de convolution, ne pas oublier les indicatrices


qui peuvent figurer dans la définition des fonctions de densité f et g.

Exemple Calculer la densité de la somme de deux variables aléatoires indépendantes qui


suivent la même loi uniforme sur l'intervalle [0, 1].

Corollaire
i) Soient X et Y deux variables aléatoires indépendantes et de lois normales. Alors X+Y suit
une loi normale. Plus précisément, si X suit la loi N (, ) et Y suit N (, ), alors X+Y
suit la loi N (; √𝜎12 + 𝜎22 ).

ii) Soient X et Y deux variables aléatoires indépendantes et de lois exponentielles. Alors X+Y
suit une loi exponentielle. Plus précisément, si X ~ 𝐸(𝜆)et Y ~ 𝐸(𝜇), alors

X+Y ~ 𝐸(𝜆 + 𝜇).

iii) Soient X et Y deux variables aléatoires indépendantes et de lois exponentielles. Si


1
X ~ 𝐸(𝜆) et Y ~ 𝐸(𝜆), alors X+Y ~ Γ(2, 𝜆).

iv) Soient X et Y deux variables aléatoires indépendantes de lois respectives Γ(a, 𝜆) et

Γ(b, 𝜆), alors X+Y a pour loi Γ(a+b, λ).

Remarques.
Sous l'hypothèse d'indépendance, les lois Gamma (respectivement normales) sont stables pour
la somme.
Par récurrence, ces propriétés se généralisent à des sommes finies.

5. Covariance de deux variables aléatoires


Considère un couple aléatoire (X, Y) tel que X et Y ont une variance. On note 𝜎𝑋 et 𝜎𝑌 leurs
écart-types respectifs.

5.1. Covariance et coefficient de corrélation de deux v.a.

Propriété 5.1 Si X et Y ont une variance, la v.a. XY a une espérance.


Propriété: Inégalité de Cauchy-Schwarz

(𝐸(𝑋𝑌))2 ≤ 𝐸(𝑋 2 )𝐸(𝑌 2 ).


Il y a égalité si et seulement si X et Y sont proportionnelles.

62
Définitions 5.1
i) On appelle covariance de X et Y le réel défini par :
 
cov(X ,Y )  E( X  E( X ))(Y  E(Y ))    ( x  E( X ))(y  E(Y )) f X ,Y ( x, y)dxdy
 

On obtient après devéloppement ,


cov( X , Y )  E  XY   E  X E Y .

ii) On appelle coefficient de corrélation de X et Y le réel défini par :

cov( X , Y )
( X , Y )  à condition que 𝜎𝑋 > 0 et 𝜎𝑌 > 0.
 X Y

Remarques.
● Contrairement à la covariance, le coefficient de corrélation est indépendant des
unités choisies pour X et Y.
● Si cov(X,Y) =0, on dit que X et Y sont non corrélées.
● Deux variables aléatoires X et Y sont orthogonales si E ( XY )  0 .
● Si X et Y sont indépendantes, on montre que E(XY ) = E(X)E(Y ).

Propriétés 5.2
Soient X et Y deux v.a. admettant une variance, et soient 𝜆 et 𝜇 deux réels.
i) cov(X, X) =Var(X).
ii) cov(X, Y) = cov(Y, X) la covariance est symétrique.
iii) cov(𝜆X1+𝜇X2, Y) =𝜆cov(X,Y) + 𝜇cov(X, Y) la covariance est bilinéaire.
iv) |𝜌(𝑋, 𝑌)| ≤ 1.
v) Si |𝜌(𝑋, 𝑌)| = 1, alors Y est une fonction affine de X (et inversement).

Remarques
● Un coefficient de corrélation linéaire est une grandeur sans dimension et sans unité (dite aussi
grandeur scalaire). Il est indépendant des unités choisies pour X et Y (ce qui est heureux
puisqu’il est censé avoir un «sens physique»).
● Si 𝜌(X; Y) > 0, on dit que X et Y sont corrélées positivement, si 𝜌(X; Y) < 0 qu’elles sont
corrélées négativement.
● Une corrélation positive signifie que Y a «tendance à augmenter» quand X augmente.
Une corrélation négative signifie que Ya tendance à diminuer quand X augmente.
● Un coefficient de corrélation linéaire «proche de 1» en valeur absolue signifie que Y peut
être «bien approchée» par une fonction affine de X, croissante si le coefficient est positif,
décroissante sinon. C’est une question centrale en statistiques (moins en probabilités).
● Deux variables sont non corrélées (linéairement) si et seulement si leur covariance est nulle.
Cela ne signifie pas nécessairement qu’elles sont indépendantes.

5.2. Variance d'une somme

Théorème 5.2
Si X et Y ont une variance, il en est de même pour X + Y, et on a :

𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) + 2𝑐𝑜𝑣(𝑋, 𝑌).

63
Généralisation à n variables : Soit a1 ,…, an n constantes, si n variables aléatoires X1,…, Xn
ont une variance, alors il en est de même pour leur somme, et on a :
𝑛 𝑛

𝑉𝑎𝑟 (∑ 𝑎𝑖 𝑋𝑖 ) = ∑ 𝑎𝑖2 𝑉𝑎𝑟(𝑋𝑖 ) + 2 × ∑ 𝑎𝑖 𝑎𝑗 𝑐𝑜𝑣(𝑋𝑖 , 𝑋𝑗 ).


𝑖=1 𝑖=1 1≤𝑖<𝑗≤𝑛

Cas particulier important : Si les Xi sont non corrélées deux à deux (ce qui est vrai en
particulier si les Xi sont indépendantes, la variance de la somme est égale à la somme des
variances :
𝑛 𝑛

𝑉𝑎𝑟 (∑ 𝑎𝑖 𝑋𝑖 ) = ∑ 𝑎𝑖2 𝑉𝑎𝑟(𝑋𝑖 ).


𝑖=1 𝑖=1

Exercices Proposés

Exercice 1 On considère le lancer d’un dé pipé dont la loi est donnée par le tableau suivant
(avec 𝑘 ∈ ℝ) :

k 1 2 3 4 5 6

P(X=k) k 2k 3k 3k 2k k

1) A quelle(s) condition(s) sur 𝑘 ce tableau définit bien une loi de probabilité ?


2) Calculer l’espérance et la variance de X.
1 1
Exercice 2 Soient (Ω, ℱ, 𝑃) un espace de probabilités, 𝐴, 𝐵 ∈ ℱ avec 𝑃(𝐴) = 3 ; 𝑃(𝐵) = 4 et
1
𝑃(𝐴 ∩ 𝐵) = . Calculer 𝑃(𝐴̅) ; 𝑃(𝐴̅ ∪ 𝐵) ; 𝑃(𝐴 ∪ 𝐵̅ ) ; 𝑃(𝐴 ∩ 𝐵̅ ) ; 𝑃(𝐴̅ ∪ 𝐵̅ ).
6

Exercice 3 Une étude a montré qu’en moyenne 100 consultations d’un site hôtelier sur Internet
entraînent 2 réservations fermes. Soit X la variable aléatoire égale au nombre mensuel de
réservations fermes. La première année le nombre moyen mensuel de consultations est estimée
à 250.
1) Justifier que X suit une loi binomiale, en préciser les paramètres.
2) Montrer qu’une approximation de la loi binomiale par une loi de Poisson convient.
3) En utilisant l’approximation, déterminer la probabilité pour un mois donné que le nombre de
réservations fermes soit :
(3.a) de 8 réservations ; (3.b) de 12 réservations ; (3.c) compris entre 8 (inclus) et 12 (inclus)
réservations.

Exercice 4 Dans une entreprise qui produit des bobines de fil pour l’industrie textile, une
étude a montré que la longueur d’une bobine est une variable aléatoire X qui suit la loi
normale N (50 ; 0, 2)
1) Calculer les probabilités suivantes.
1.1 La longueur de la bobine est inférieure 50,19 m.
1.2 La longueur de la bobine est supérieure 50,16 m.
1.3 La longueur de la bobine est comprise entre 50,16 m et 50,19 m.
2) Déterminer le nombre réel positif a tel que 𝑃(50 − 𝑎 ≤ 𝑋 ≤ 50 + 𝑎) = 0, 9 puis
interpréter le résultat trouvé.

64
Exercice 5 Soit X une variable aléatoire continue dont la densité est donnée sur ℝ par :
𝑎𝑥(𝑥 − 2) 𝑠𝑖 𝑥 ∈ [0 ; 2]
𝑓(𝑥) = {
0 𝑠𝑖 𝑥 ∉ [0 ; 2]
où 𝑎 est un réel négatif.
1) Donner la valeur de 𝑎.
2) Calculer la fonction de répartition de X.
3) Calculer l’espérance et la variance de X.
1 1 4
4) Calculer 𝑃 ( 𝑋 ≤ 2 ) et 𝑃 ( 3 ≤ 𝑋 ≤ 3).

Exercice 6 Une compagnie de transport désire optimiser les contrôles afin de limiter l’impact
des fraudes. Cette compagnie effectue une étude basée sur 2 trajets par jour pendant les 20 jours
ouvrables d’un mois, soit au total 40 trajets. On admet que les contrôles sont indépendants les
uns des autres et que la probabilité pour tout voyageur d’être contrôlé est égale à 𝑝. Un trajet
coûte 10 𝐸𝑐𝑜 ; en cas de fraude, l’amende est de 100 𝐸𝑐𝑜. Théo fraude systématiquement lors
des 40 trajets étudiés.
On note 𝑋 la variable aléatoire qui compte le nombre de trajets où Théo a été contrôlé.
1) On suppose que 𝑝 = 0,05.
1.1) Donner la loi de la variable aléatoire 𝑋.
1.2) Calculer à 10−4 près la probabilité que Théo soit contrôlé au plus 2 fois.
2) Soit 𝑍 la variable aléatoire donnant le gain algébrique réalisé par Théo.
Justifier que 𝑍 = 400 − 110𝑋 puis calculer 𝐸(𝑍).
3) On ne connaît plus la valeur de 𝑝. Pour quelles valeurs de 𝑝 la fraude systématique est-elle
favorable à Théo ? Justifier votre réponse.

Exercice 7 Dans cet exercice chaque probabilité demandée sera arrondie à 𝟏𝟎−𝟑 .
Une petite entreprise emploie 20 personnes. Une étude statistique permet d’admettre qu’un jour
donné la probabilité qu’un employé donné soit absent est 0,05. On admet que les absences des
employés survenues un jour donné sont indépendantes les unes des autres. On note X la variable
aléatoire qui à chaque jour tiré au hasard associe le nombre d’employés absents.
1) Expliquer pourquoi X suit une loi binomiale. Donner les paramètres de cette loi.
2) Calculer la probabilité des événements suivants : 𝐸1 : "Un jour donné, il y a exactement trois
absents" ; 𝐸2 : "Un jour donné, le nombre d’absents est compris entre trois et six (bornes
comprises)".
3) Calculer l’espérance mathématique notée E(X) de la variable aléatoire X.
Que représente E(X) ?
4) On approche la loi binomiale de la question 1) par une loi de Poisson de paramètre 𝜆.
Déterminer la valeur de 𝜆. En utilisant la loi de Poisson, déterminer les probabilités respectives
des deux événements 𝐸1 , 𝐸2 de la question 2. Conclure.

65

Vous aimerez peut-être aussi