Cours de Probabilités 1 Et2
Cours de Probabilités 1 Et2
1Ensembles et opérations...….………………..………………………………………………..4
3 Dénombrements.……………………………………………………………………………...8
2 Mesure de probabilité……………………………………………………………………….14
3 Probabilité conditionnelle…………………….……………………………………………..15
4 Indépendance………………………………………………………………………………..18
2
2. Lois de probabilité continues…....…………………………………………………………33
2 Convergence en loi.………..………………………………………………………………..43
3 Lois d’échantillonnages…………………………………………………………………….44
Exercices Proposés……………………………………………………………………………64
3
Cours de Calculs de Probabilités
Introduction
Il peut paraitre irréaliste et prétentieux de vouloir, de par sa nature même, quantifier le hasard.
C'est pourtant ce qui a conduit à la notion de Probabilité. Nous allons dans ce cours introduire
ce concept mathématique, dont la puissance permettra de modéliser d'innombrables situations
ou le hasard intervient. La modélisation probabiliste est fondamentale dans tous les domaines
d'applications, qu'ils soient issus des sciences dures ou des sciences humaines, de la physique
(physique quantique, physique des particules), de la climatologie, de la biologie (mutations du
génome), de l'écologie (variabilité des comportements individuels ou variations
environnementales), de l'informatique et des réseaux de télécommunications, du traitement du
signal et de la parole, de la médecine (imagerie médicale), de l'économie, l'assurance, la finance
(marchés boursiers), ou de la sociologie.
Ce cours de probabilité débute par le formalisme des ensembles (univers) et des germes de
probabilités. Nous étudions ensuite les probabilités discrètes, sur un univers fini ou infini.
Nous étudions enfin les lois de probabilités usuelles discrètes et continues. La loi normale, le
théorème central limite et l’approximation par la loi normale sont omniprésentes.
Ces lois usuelles sont utiles pour le cours de statistique sur les intervalles de confiance et les
tests d’hypothèse classiques. Ceux-ci utilisent majoritairement la loi binomiale, la loi de
Poisson, la loi normale et ses ramifications que sont la loi de Student, la loi du chi-deux et la
loi de Fisher. Ces deux dernières lois sont utilisées couramment en biologie ou en médecine,
sans qu’il soit besoin de bien maîtriser le fondement mathématique sous-jacent.
4
Chapitre 1 Dénombrements dans un ensemble fini
Calculer des probabilités consiste majoritairement à savoir dénombrer des « cas possibles » et
des « cas favorables ». Nous commençons ce chapitre sur les dénombrements dans un ensemble
fini par des rappels sur la théorie des ensembles. Cette théorie débouche sur certaines opérations
ensemblistes utiles.
1 Ensembles et opérations
Rappelons qu’un ensemble E est constitué d’éléments, et que ces éléments sont tous distincts.
Une partie, ou sous-ensemble, de E contient quelques éléments de E. N’oublions pas l’ensemble
vide, noté ∅, qui ne contient aucun élément, mais qui est très utile.
1.1 Inclusion
Un ensemble A est inclus dans un ensemble B lorsque chaque élément de A appartient aussi à
B. On note A ⊂ B. A est donc un sous-ensemble de B.
Etant donnés deux parties A et B de E, la réunion 𝐴 ∪ 𝐵 est la partie de E formé des éléments
de E appartenant soit à A soit à B. Les ensembles A et B peuvent avoir des éléments en
commun ou bien ne pas en avoir.
On a évidemment 𝐴 ∪ ∅ = 𝐴.
La réunion est associée au mot OU : 𝑥 ∈ 𝐴 ∪ 𝐵 ⇔ (𝑥 ∈ 𝐴) 𝑜𝑢 (𝑥 ∈ 𝐵).
Il s’agit du « ou » que l’on appelle « inclusif » : un élément de 𝐴 ∪ 𝐵 appartient à A
ou à B, et il peut très bien appartenir aux deux ensembles.
La réunion se généralise évidemment à un nombre quelconque de sous-ensembles de E.
5
1.3 Intersection de deux parties de E
i) On note An la réunion dénombrable des An : c’est l’ensemble des états qui sont au moins
n 1
i) A An A An : distributivité de l’intersection par rapport à la réunion ;
n 1 n 1
ii) A An A An : distributivité de la réunion par rapport à l’intersection.
n 1 n 1
On dit que deux parties A et B de E sont disjointes lorsque leur intersection est vide.
Il n’existe aucun élément de E qui soit à la fois dans A et dans B.
Plus généralement, on dit que les n parties 𝐴1 , … , 𝐴𝑛 de E sont disjointes lorsque 𝐴𝑖 ∩ 𝐴𝑗 = ∅
pour tout 𝑖 ≠ 𝑗. Cette notion se généralise à une infinité de parties de E.
6
1.5 Complémentaire d'une partie de E
Si A est une partie de E, l’ensemble des éléments de E qui n’appartiennent pas à A s’appelle
complémentaire de A dans E, et se note 𝐶𝐸𝐴 = 𝐴̅.
On a évidemment
𝐸̅ = ∅.
∅ ̅ = 𝐸.
𝐴̅ et A sont disjoints.
𝐸 = 𝐴 ∪ 𝐴̅ .
̅̅̅̅̅̅̅
𝐴 ∪ 𝐵 = 𝐴̅ ∩ 𝐵̅ ; ̅̅̅̅̅̅̅
𝐴 ∩ 𝐵 = 𝐴̅ ∪ 𝐵̅ . (𝐅𝐨𝐫𝐦𝐮𝐥𝐞𝐬 𝐝𝐞 𝐌𝐨𝐫𝐠𝐚𝐧)
On a : An An ; An An .
n 1 n 1 n 1 n 1
1.6 Partition de E
Voici une notion sans doute nouvelle, et très importante en probabilités.
Définition 1.2 Une famille 𝐴1 , 𝐴2 , … , 𝐴𝑛 de parties non vides de E forme une partition de E
lorsque :
Elles sont disjointes : 𝐴𝑖 ∩ 𝐴𝑗 = ∅ pour tout 𝑖 ≠ 𝑗 ;
Leur réunion est égale à E : ⋃𝑛𝑖=1 𝐴𝑖 = 𝐸.
7
Soient E et F deux ensembles quelconques.
Définition 1.3 On appelle produit cartésien de E par F, l’ensemble des couples (𝑥, 𝑦) tels que
𝑥 ∈ 𝐸 et 𝑦 ∈ 𝐹.
Exemples
Exemples
Si 𝐸 = {𝑎, 𝑏, 𝑐} et 𝐹 = {1, 2}, alors
𝐸 × 𝐹 = {(𝑎, 1), (𝑎, 2), (𝑏, 1), (𝑏, 2), (𝑐, 1), (𝑐, 2)}.
Le produit ℝ × ℝ est l’ensemble des couples (x, y) de réels. C’est le plan.
Le cardinal d’un ensemble désigne le nombre de ses éléments. Ceci pose un problème lorsque
l’ensemble est infini. Nous n’entrerons pas dans ce cas de figure. Dans la suite du chapitre, E
désigne un ensemble fini : cela veut dire que l’on peut numéroter ses éléments sous la forme
𝑥1 , 𝑥2 , … , 𝑥𝑛 où n est un entier naturel. Le cardinal de E, à savoir cet entier n, se note
𝐶𝑎𝑟𝑑(𝐸) = 𝑛.
Donnons quelques propriétés importantes sur les cardinaux. Nous travaillons toujours avec des
parties d’un certain ensemble E donné.
Propriétés 2.1
1) Si A et B sont disjointes, alors 𝐶𝑎𝑟𝑑(𝐴 ∪ 𝐵) = 𝐶𝑎𝑟𝑑(𝐴) + 𝐶𝑎𝑟𝑑(𝐵).
2) Plus généralement, si . 𝐴1 , 𝐴2 , … , 𝐴𝑛 sont disjoints, alors
𝑛 𝑛
𝐶𝑎𝑟𝑑 (⋃ 𝐴𝑖 ) = ∑ 𝐶𝑎𝑟𝑑(𝐴𝑖 ).
𝑖=1 𝑖=1
3) En particulier, si 𝐴1 , 𝐴2 , … , 𝐴𝑛 forment une partition de E, alors
𝑛 𝑛
8
Propriété 2.2 Soient E et F deux ensembles finis, on a :
3 Dénombrements
3.1 Permutations
Définition 3.1 On appelle permutation des éléments d’un ensemble E toute suite ordonnée des
éléments de E, chaque élément de E intervenant une et une seule fois.
Si E possède n éléments, une permutation de E est donc une suite contenant aussi n éléments.
Dans un ensemble, il n’y a pas d’ordre, et l’ensemble 𝐸 = {1, 2, 3} est identique à l’ensemble
{2, 1, 3}. Par contre, on peut s’intéresser aux suites de trois éléments distincts formées avec les
éléments de E. Dans le mot suite, il y a un ordre sous- entendu, c’est à-dire qu’il y a un premier
terme, un deuxième terme et un troisième terme. Les suites possibles de 3 termes construites à
partir de 𝐸 = {1, 2, 3} sont au nombre de six, et elles sont toutes distinctes :
(1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2), (3, 2, 1).
Chacune de ces suites s’appelle une permutation des éléments de E.
En effet, nous avons n choix possibles du premier terme de la permutation. Pour le second
terme, il reste seulement n -1 choix possibles. Pour le troisième, il reste n -2 choix possibles, et
ainsi de suite. Pour le dernier terme, il y a un unique choix possible.
Au total, nous faisons le produit 𝑛 × (𝑛 − 1) × … × 3 × 2 × 1 de tous ces nombres de choix.
On a 1! = 1, 2! = 2, 3! = 6, 4! = 24, 5! = 120.
Par convention, on pose 0! = 1, ce qui sera très pratique.
La suite des factorielles vérifie la relation de récurrence 𝑛! = 𝑛 × (𝑛 − 1)!, avec l’initialisation
0! = 1.
Exemple 1
Exemple 1 Cherchons le nombre d’anagrammes du prénom ALICE. Un anagramme est une
permutation quelconque des lettres d’un mot, que cela ait un sens en français ou non. Ici, nous
avons 5 lettres différentes, et les 5! permutations des cinq lettres nous donnent 5! = 120
anagrammes distincts.ple 2
9
Exemple 2 Cherchons le nombre d’anagrammes du prénom EMILE. Il y a aussi cinq lettres,
mais on a deux fois la lettre E. Il est donc faux de dire qu’il y a 5! anagrammes.
Si les deux lettres E étaient distinctes (une en orange, l’autre en vert), on aurait bien 5!
anagrammes, mais MEILE avec le premier E orange et le second en vert, est le même
anagramme que MEILE avec le premier E en orange et le second en vert. Chaque anagramme
est trouvé deux fois, et la vraie réponse est donc
5!
.
2
Exemple 3 Cherchons le nombre d’anagrammes de « constitutionnel ». Si les 15 lettres étaient
distinctes, il y aurait 15! anagrammes (permutations possibles). Mais on rencontre trois fois la
lettre « t », par exemple. En les considérant comme distincts, nous avons compté 3! fois chaque
anagramme : si l’on peint les trois « t » de couleurs différentes, il y a 3! façons de les permuter
entre elles, mais cela donne le même anagramme. Il faut donc diviser notre 15! par 3! pour le «
t ». Il faut aussi le diviser par 3! (pour le « n »), par 2! (pour le « i ») et par 2! pour le « o ». On
obtient
15!
.
3! × 3! × 2! × 2!
5!
Exemple A partir du mot LILLE, il est possible de former au total 𝑃(3,1,1) = 3!×1!×1! = 20
mots différents.
Définition 3.3 Soit E un ensemble à n éléments et p un nombre entier naturel non nul.
On appelle p-uplet de E tout élément de l’ensemble 𝐸 𝑝 .
10
3.4 Arrangements
Exemple Soit 𝐸 = {1, 2, 3, 4}. Regardons les suites ordonnées de deux éléments distincts pris
dans E : ce sont donc les suites (a, b), avec a et b distincts dans E, et la suite (b, a) qui est
différente de la suite (a, b). On obtient
(1, 2), (2, 1), (1, 3), (3, 1), (1, 4), (4, 1), (2, 3), (3, 2), (2, 4), (4, 2), (3, 4), (4, 3).
Une telle petite suite s’appelle arrangement des quatre éléments de E deux à deux.
Définition 3.4 Un arrangement de 𝑝 éléments dans un ensemble 𝐸 à n éléments est une suite
ordonnée de p éléments choisis parmi ces n éléments de départ.
Définition 3.5 Une combinaison de p éléments de E est une partie de E qui contient p
éléments.
On choisit p éléments parmi n mais sans tenir compte de l'ordre et sans répétitions.
Chaque combinaison de p objets choisis parmi n donne naissance à p! Arrangements : on
permute de toutes les façons possibles les p éléments de la combinaison. On a donc une relation
simple entre le nombre d’arrangements et le nombre 𝐶𝑛𝑝 de combinaisons :
𝑝 𝑝
𝐴𝑛 = 𝑝! 𝐶𝑛 .
Propriété 3.5 Le nombre de combinaisons de p objets choisis parmi n est donné par
𝑝
𝐴𝑛 𝑛!
𝐶𝑛𝑝 = = (𝑛−𝑝)!𝑝! avec 𝐶𝑛0 = 1.
𝑝!
11
Remarque Le nombre de sous-ensembles que l’on peut constituer (y compris l’ensemble
vide) à partir d’un ensemble de cardinal n est égal 2𝑛 . Ainsi, quand
𝑐𝑎𝑟𝑑(𝛺) = 𝑛, 𝑜𝑛 𝑎 𝑐𝑎𝑟𝑑(𝑃(𝛺)) = 2𝑛 .
Exemple Le nombre de groupes de 3 lettres, avec répétition, que l’on peut former avec les 4
lettres 𝐸 = {𝑎, 𝑏, 𝑐, 𝑑} sont : aaa, aab, aac, aad, abb, abc, abd, acc, acd, add, bbb, bbc, bbd, bcc,
bcd, bdd, ccc, ccd, cdd, ddd.
3 6!
On note C 4 C63 20 .
3!3!
Un tel type de combinaison se ramène à un choix non ordonné ou un élément peut apparaître
plusieurs fois.
Propriété 3.6 Le nombre de combinaisons de p objets choisis parmi n, le même objet pouvant
être répété, est
𝑝 𝑝 (𝑛 + 𝑝 − 1)!
𝐶𝑛̅ = 𝐶𝑛+𝑝−1 = .
𝑝! (𝑛 − 1)!
Dans ce cas, le nombre d’objets choisis peut très bien être plus grand que n.
Récapitulatif
Pour appliquer une des formules de dénombrement vues dans ce chapitre à un problème à
résoudre, il suffit en général de déterminer si l’ordre est pris en compte ou non, ce qui indique
s’il s’agit d’une permutation, d’un arrangement ou d’une combinaison, puis de déterminer s’il
ya des répétitions ou non. Le tableau suivant récapitule les différentes formules.
Répétitions
sans avec
Permutations n! n!
P(n1 , n2 , , nk )
n1 !n2 ! nk !
Arrangements n! nk
Ank
n k !
Combinaisons
Cnk
n! k
C n Cnkk 1
n k 1!
k ! n k ! k ! n 1!
12
Chapitre 2 Modélisations des phénomènes aléatoires
Le but de la théorie des probabilités est de fournir un modèle mathématique pour décrire les
phénomènes aléatoires. Ce cours est une introduction à la modélisation de ces phénomènes.
Sous sa forme moderne, la formulation de cette théorie contient trois ingrédients : l’univers,
les événements, et la mesure de probabilité.
1 Définitions et vocabulaire
Définition 1.1 Un phénomène est dit aléatoire si, reproduit maintes fois dans des conditions
identiques, il se déroule chaque fois différemment de telle sorte que le résultat de l'expérience
change d'une fois sur l'autre de manière imprévisible.
Univers Il s’agit d’un ensemble, noté habituellement Ω, dont les éléments correspondent à
tous les résultats possibles de l’expérience aléatoire que l’on cherche à modéliser. On
l’appelle également l’espace des observables, ou encore l’espace échantillon.
Exemples 1.1
1) Deux tirages à pile ou face : Ω = {𝑃𝑃, 𝑃𝐹, 𝐹𝑃, 𝐹𝐹}.
2) Taille d’une personne : Ω = ℝ+ .
3) Durée de vie d’une ampoule : Ω = ℝ+ .
4) Le cours d’une action sur un intervalle de temps [𝑠, 𝑡] : Ω = 𝒞([𝑠, 𝑡], ℝ+ ), où l’on a noté
𝒞([𝑠, 𝑡], ℝ+ ) l’ensemble des fonctions continues de [𝑠, 𝑡] vers ℝ+ .
5) La trajectoire d’un grain de pollen en suspension dans un fluide : 𝒞(ℝ+ , ℝ3 ).
Remarque Dans chaque cas de l’exemple 1.1 précédent, il ne s’agit que d’une modélisation de
l’expérience correspondante. Il y a évidemment de nombreuses façons de choisir l’univers. Tout
dépend l’énoncé du problème ou des hypothèses.
Evénements Un événement est une propriété dont on peut dire si elle est vérifiée ou non une
fois le résultat de l’expérience connu. Mathématiquement parlant, un événement est caractérisé
par l’ensemble des résultats dans lesquels il est réalisé (un tel résultat est alors appelé une
réalisation de l’événement).
13
Exemple 1.2
On lance successivement deux dés, Ω = {(𝑚, 𝑛) ∈ {1,2, 3, 4, 5, 6} × {1, 2, 3, 4, 5, 6}}
1) L’événement « le second lancer est un 6 » : {{𝑚, 6}, 𝑚 ∈ {1, 2, 3, 4, 5, 6}}.
2) L’événement « le premier lancer est supérieur au second » : {(𝑚, 𝑛) ∈ Ω ∶ 𝑚 > 𝑛}.
3) L’événement « la somme des deux lancers est paire » : {(𝑚, 𝑛) ∈ Ω ∶ 2(𝑚 + 𝑛)}.
Remarque L’ensemble des événements associés à une expérience aléatoire est un sous-
ensemble ℱ des parties de Ω, ℱ ⊆ 𝒫(Ω). Ce cours étant une introduction à la théorie des
probabilités, il serait pour nous raisonnable de prendre ℱ = 𝒫(Ω).
2 Mesure de probabilité
2.1 Définition
Soit Ω un univers et ℱ un espace des événements sur Ω. Une (loi de) probabilité sur ℱ est une
application P de ℱ dans [0, 1], qui vérifie :
i) P(Ω) = 1.
ii) Pour toute famille (finie, ou infinie dénombrable) d’événements Ai iI qui sont deux à deux
incompatibles, on a : P Ai P Ai .
iI iI
Propriétés 2.1
Pour des événements quelconques A et B de ℱ et une probabilité P donnée, on a :
i) P A = 1 − P(A).
ii) P A B P( A) P( B) P A B .
iii) A ⊂ B P(A) ≤ P(B).
iv) P( ) = 0.
v) ∀𝐴 ⊂ 𝐵 ∈ 𝓕, 𝑃(𝐵\𝐴) = 𝑃(𝐵) − 𝑃(𝐴).
Espace probabilisé
On est capable de réaliser les calculs de probabilités quand chacune des trois composantes du
triplé (Ω, ℱ, P) a été précisée. On dit alors qu’on a défini l’espace probabilisé (Ω, ℱ, P).
14
Définir P quand Ω est fini.
L’application P est définie sur ℱ. Cependant dans le cas d’un univers fini, l’application P est
totalement déterminée par la seule connaissance des probabilités des événements élémentaires.
C’est pourquoi, quand Ω est fini, pour définir la loi de probabilité P sur ℱ, on se contente de
définir les probabilités des événements élémentaires.
Dans le cas d’un univers fini, dans le cas particulier où les événements élémentaires ont chacun
la même probabilité, la loi est dite loi d’équiprobabilité ou encore loi uniforme. La probabilité
1
de chaque événement élémentaire est alors . Quand la loi est uniforme, on a donc
card ()
card ( A)
∀𝐴 ∈ ℱ , P A P i .
i A card ()
C’est la règle de calcul de probabilité d’un événement, consistant à faire « nombre de cas
favorables sur nombre de cas possibles ».
Cette règle n’existe donc que dans le cas où la loi d’équiprobabilité des événements
élémentaires est celle qui convient.
Exercice Quand on jette deux pièces, trois sortes de résultats peuvent être obtenus : pile-face
ou pile-pile ou face-face. Si les pièces sont bien équilibrées et le jet réalisé au hasard, ces trois
cas possibles ne sont pas équiprobables. Ici, un autre univers des cas possibles que celui suggéré
ci-dessus permet d’introduire la loi d’équiprobabilité a priori, rendant alors les calculs aisés.
Quel est cet univers ?
3 Probabilité conditionnelle
3.1 Définition-Remarques
Définition 3.1 Soit (Ω, ℱ, P) un espace probabilisé donné. Soit B ⊂ ℱ un événement donné
P A B
vérifiant P( B) 0 . L’application PB de ℱ dans [0,1] définie par PB ( A) est aussi
P( B)
une probabilité sur ℱ, nommée probabilité conditionnelle (relative à B et à P).
Remarque Le réel 𝑃𝐵 (𝐴) se note aussi 𝑃(𝐴|𝐵) et se lit aussi probabilité de A sachant B.
La probabilité de A sachant B correspond à la part de l’ensemble A dans l’ensemble B. C’est-à-
dire, la part hachurée dans l’ensemble B.
15
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑′ é𝑙é𝑚𝑒𝑛𝑡𝑠 𝑐𝑜𝑚𝑚𝑢𝑛𝑠 à 𝐴 𝑒𝑡 𝐵 𝑃(𝐴 ∩ 𝐵)
𝑃𝐵 (𝐴) = = .
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑 ′ é𝑙é𝑚𝑒𝑛𝑡𝑠 𝑑𝑒 𝐵 𝑃(𝐵)
Exemple : Dans un lycée 54 % des élèves sont des filles dont 72 % sont externes. De plus,
76 % des garçons sont externes. On choisit un élève au hasard.
Remarques
Pour remplir et utiliser un arbre, on a les propriétés suivantes :
● Sur chaque branche de l'arbre, on écrit les probabilités correspondantes (attention pas de
pourcentage).
● La somme des probabilités inscrites sur les branches issues d'un même nœud est égale à 1
(Loi des noeuds).
● Le produit des probabilités inscrites sur chaque branche d'un chemin donne la probabilité de
l'intersection des événements placés sur ce chemin.
Par exemple, la probabilité d'avoir une fille externe est :
𝑃(𝐹 ∩ 𝐸) = 𝑃(𝐹) × 𝑃𝐹 (𝐸) = 0,54 × 0,72 = 0,3888.
● La probabilité d'un événement est la somme des probabilités des chemins qui aboutissent à
cet événement.
16
Par exemple, la probabilité d'avoir un élève externe :
Théorème 3.1 Soient A et B deux événements de ℱ et P une probabilité sur ℱ, avec P(A) et
P(B) non nuls.
i) P(A∩ B) = P(A) P(B|A)= P(B) P(A|B).
Exercice résolu. Une urne contient n1 boules blanches B et n2 boules noires. On fait 2 tirages
au hasard sans remise (exhaustifs). Déterminer la probabilité p d’obtenir deux blanches ?
On pose B1 = « une B est obtenue lors du 1er tirage », B2 = « une B est obtenue lors du 2ème
tirage ». On a P(B1∩B2) = P(B1) P(B2|B1).
n1
P( B1 ) , proportion de B dans l’urne avant le 1er tirage (qui suppose l’équiprobabilité
n1 n2
pour chaque boule d’être tirée).
n1 1
P(B2|B1) = , proportion B dans l’urne après le 1er tirage.
n1 n2 1
n1 n1 1
Donc p = P(B1 ∩ B2) = .
n1 n2 n1 n2 1
3.3 Formule de Bayes
Soit {𝐵𝑖 }𝑖∈𝐼 un système complet d’événements, c’est à dire une famille finie, ou infinie
dénombrable, d’événements de ℱ, 2 à 2 incompatibles, et recouvrant Ω entièrement :
Bi B j i j et Bi .
iI
17
Supposant maintenant que A se soit réalisé, la probabilité que ce soit la cause Bj qui soit alors
P A Bj P A Bj
intervenue est P(Bj |A) = .
P( A) P A Bi
iI
D’où la formule de Bayes, ou formule des probabilités des causes
P B j P( A | B j )
P( B j | A) .
P Bi P( A | Bi )
iI
Exercice : Soit une population dont 1 habitant sur 100 a l’Ebola. Supposons qu’il existe un
test détectant l’Ebola, avec 9 chances sur 10 de le détecter chez une personne malade, et aussi
avec 8 chances sur 10 de reconnaître un sujet sain.
Déterminer la probabilité pour qu’un test positif corresponde effectivement à un malade
d’Ebola.
P(A ∩ B) = P(B)P(A|B) = 0, 01 × 0, 9 et P( A B) P( B) P( A | B) = 0, 99 × 0, 2.
Ainsi, P(B|A) =0,01× 0,9 + 0,99 × 0,2.
Le système complet est ici formé des deux événements B et B .
4 Indépendance
Soient A et B deux événements de ℱ muni de P.
A et B sont dits indépendants si et seulement si P(A ∩ B) = P(A)P(B).
Notons que l’indépendance des événements est relative à l’application probabilité considérée
sur ℱ : ainsi, des événements de ℱ peuvent être indépendants vis-à-vis d’une application
probabilité P1 et ne pas l’être vis-à-vis d’une autre probabilité P2.
Remarques
Si A ne dépend pas de la réalisation de B, A ne dépend pas non plus de la non réalisation de B.
Ainsi, A et B étant indépendants, A et B le sont aussi, de même que A et B, et que A et B .
Démontrez-le.
* Souvent l’indépendance est introduite a priori entre épreuves, et par suite, entre événements
associés à ces épreuves. Ainsi k tirages avec remise dans une urne étant indépendants, les k
événements qui en résultent le sont aussi.
* Ne pas confondre événements indépendants et événements incompatibles.
2 événements A et B sont indépendants si P(A B)= P(A)P(B)
2 événements A et B sont incompatibles si A B = .
La notion d’indépendance dépend de la probabilité sur l’univers, celle d’incompatibilité est
purement ensembliste.
18
Exercice 1 On extrait au hasard un jeton d’un sac contenant six jetons : trois rouges numérotés
1, 2 et 3, deux jaunes numérotés 1 et 2, et un bleu numéroté 1. On désigne respectivement par
R, U et D les événements : « le jeton est rouge », « le numéro est 1 » et « le numéro est 2 ». Les
événements R et U sont-ils indépendants ? Et les événements R et D ?
Exercice 4 Une compagnie d’assurance automobile fait un bilan des frais d’intervention, parmi
ses dossiers d’accidents de la circulation. Elle constate que 85 % des dossiers entraînent des
frais de réparation matérielle ; 20 % des dossiers entraînent des frais de dommages corporels.
Parmi les dossiers entraînant des frais de réparation matérielle, 12 % entraînent des frais de
dommages corporels. Soit les événements suivants : R : « le dossier traité entraîne des frais de
réparation matérielle » ; D : « le dossier traité entraîne des frais de dommages corporels ».
On choisit un dossier au hasard. Dans tout l’exercice, les résultats seront donnés sous forme
décimale, arrondis au millième près.
On choisit un dossier au hasard.
Calculer la probabilité pour qu’un dossier :
1) entraîne des frais de réparation matérielle et des frais de dommages corporels ;
2) entraîne seulement des frais de réparation matérielle ;
3) entraîne seulement des frais de dommages corporels ;
4) n’entraîne ni frais de réparation matérielle ni frais de dommages corporels ;
5) entraîne des frais de réparation matérielle sachant qu’il entraîne des frais de dommages
corporels.
19
Chapitre 3 Variable aléatoire réelle
1 Introduction
On parle de variables aléatoires (v.a.) qualitatives, quantitatives, discrètes, continues.
Ces variables définies en calcul des probabilités, servent à modéliser des caractères étudiés
qualitatifs, quantitatifs, discrets, continus.
C’est à peu près la même chose qu’une variable statistique sauf que dans le cas d’une variable
statistique on évalue un comportement réalisé (moyenne, etc) alors que dans le cas de variables
aléatoires on suppose un comportement futur (dans ce cas, on parle d’espérance plutôt que de
moyenne par exemple) ou théorique.
Exemples Le caractère « couleur des yeux » des individus d’une population sera dit qualitatif,
si les « valeurs » (on dit alors modalités) de ce caractère sont les couleurs : bleu, vert, marron,
noir,...
Pour le jeu de pile ou face, on peut coder la modalité pile par le nombre 1 par exemple, et la
modalité face par le nombre 0 et décider ainsi que la variable qualitative à deux modalités est
une variable quantitative, avec deux valeurs réelles possibles : 0 et 1.
Réciproquement, un caractère quantitatif, tel le nombre de points observés après le lancer d’un
dé, peut être codé qualitativement, s’il ne s’agit que de distinguer les faces du dé les unes des
autres, par exemple en affectant à chaque face une couleur différente. (Si l’ordre institué entre
les faces par les numéros allant de 1 à 6 est à conserver, ce remplacement serait maladroit, car
il y a alors une perte d’information non souhaitée).
Dans ce cours, nous nous intéressons aux variables (réelles) quantitatives, classées en deux
catégories : les variables discrètes et les variables continues.
Un caractère est continu si l’ensemble des valeurs possibles de ce caractère appartient à un (ou
une réunion de plusieurs) intervalle de IR (par exemple la taille, ou le poids, d’une espèce
animale), pouvant prendre toutes les valeurs possibles de cet intervalle. Un caractère est dit
discret si l’ensemble des valeurs possibles est fini ou infini dénombrable (par exemple, le
nombre de voitures s’arrêtant à un feu rouge).
Un caractère continu peut être discrétisé par recodage. Ainsi la taille des pieds des hommes peut
être codée par les pointures, nombres entiers de 10 à 50 par exemple, (ou catégorisée en 2
modalités : enfants et adultes). C’est donc le codage d’un caractère qui est discret ou continu.
Le choix du codage dépend de l’information que l’on veut (ou peut) mettre en œuvre. Alors un
codage discret (respectivement continu) donne lieu à une modélisation à
l’aide d’une v.a. discrète (resp. continue).
Définition Une variable aléatoire réelle X est une application d’un univers Ω dans ℝ.
La loi de probabilité d’une variable aléatoire permet de connaitre les chances d’apparition
des différentes valeurs de cette variable. On se place sur l’espace de probabilité (Ω, 𝑃).
20
𝑿(𝛀) = {𝒙𝟏 , … , 𝒙𝒊 , … }.
Définition On appelle distribution (ou loi) de probabilité de X la fonction P, définie par
{𝑃(𝑋 = 𝑥𝑖 ), 𝑖 ≥ 1}.
Remarques
1 si i 4
On a 1, 2,3, 4,5, 6 , X () 1, 2 et si i Ω, on pose X (i) .
2 sinon
Le tableau suivant nous donne la loi de probabilité de X :
i -1 2
2 1
P(X=i) 3 3
1 1 2 1
En effet, P( X 2) P(5) P(6) ;
6 6 6 3
1 1 1 1 4 2
P( X 1) P(1) P(2) P(3) P(4) .
6 6 6 6 6 3
Exercice résolu. On lance trois fois de suite une pièce de monnaie équilibrée. On gagne 2 Eco
pour chaque résultat « pile » et on perd 1 Eco pour chaque résultat « face ».
𝑥𝑖 x1 -3 x2 0 x3 3 x4 6
P(X = xi) 1 3 3 1
8 8 8 8
21
2.2 Indépendance de deux variables aléatoires
Soient 𝑋 et 𝑌 deux variables définies sur l’univers d’une expérience aléatoire ; 𝑋 prend les
valeurs 𝑥1 , 𝑥2 , … , 𝑥𝑛 et 𝑌 prend les valeurs 𝑦1 , 𝑦2 , … , 𝑦𝑚 .
Définition. Deux variables X et Y sont indépendantes signifie que, quels que soient i et j, les
événements (𝑋 = 𝑥𝑖 ) et (𝑌 = 𝑦𝑗 ) sont indépendants.
𝑥 ↦ 𝑃(𝑋 ≤ 𝑥).
Remarques
i) La fonction de répartition est une fonction croissante, elle vérifie naturellement
ii) On dit que deux variables aléatoires X et Y ont la même loi si elles ont la même fonction
de répartition 𝐹𝑋 = 𝐹𝑌 .
iii) Soit I un intervalle de ℝ. L’événement {𝑋 ≤ 𝑥} représente l’ensemble des valeurs
𝜔 ∈ Ω telles que 𝑋(𝜔) soit inférieur à x, i.e. {𝑋 ≤ 𝑥} = {𝜔 ∈ Ω ; 𝑋(𝜔) ≤ 𝑥}.
Remarque La fonction de répartition d’une variable discrète est constante par morceaux. Si X
est une variable discrète à valeurs dans {𝑥1 , … , 𝑥𝑛 } avec 𝑥1 < ⋯ < 𝑥𝑛 alors pour 𝑥 ∈ ℝ
𝑘
Les sauts de la fonction de répartition 𝐹𝑋 ont lieu en les points 𝑥𝑖 et la hauteur du saut
au point 𝑥𝑖 est égale à 𝑃(𝑋 = 𝑥𝑖 ).
22
Exemple
0 si x 1
2
Dans l’exemple du jet de dé on a : F ( x) si 1 x 2 .
3
1 si x2
Le terme d’espérance mathématique a été introduit par Pascal à propos des jeux de hasard.
L’espérance mathématique peut s’interpréter comme le gain moyen du joueur ou comme le
montant de la mise à engager à chaque partie si le jeu est sans frais. C’est pourquoi on dit qu’un
jeu est équitable quand 𝐸(𝑋) = 0, où X désigne le gain algébrique du joueur (gain – perte).
L’espérance mathématique cherche à traduire la tendance centrale de la loi.
Cette moyenne où chacune des valeurs xi intervient d’autant plus que sa probabilité est
importante s’apparente à un barycentre ou un centre de gravité en physique. On peut dire aussi
que 𝐸(𝑋) est l’abscisse du centre de gravité des points d’abscisses 𝑥1 , 𝑥2 , … , 𝑥𝑛 affectés des
masses 𝑃(𝑋 = 𝑥𝑖 ).
3.1 Définition
L’espérance mathématique d’une loi finie f d’une variable aléatoire X est le réel 𝐸(𝑋) définit
par :
2 1
𝐸(𝑋) = × (−1) + × 2 = 0.
3 3
23
Théorème. Soit X une variable aléatoire et a une constante réelle. On a :
a) 𝐸(𝑎𝑋) = 𝑎 𝐸(𝑋).
b) 𝐸(𝑋 + 𝑎) = 𝐸(𝑋) + 𝑎.
4.1 Définitions
Après avoir traduit la tendance centrale par l’espérance, il est nécessaire de traduire la
dispersion autour de l’espérance par les valeurs de la variance et de l’écart type.
La variance de X, notée var(X) ou 𝜎𝑋2 ou V(X), est le réel 𝑉(𝑋) = 𝐸(𝑋 − 𝑋 )2 où 𝜇𝑋 = 𝐸(𝑋).
La variance et l'écart type sont des indicateurs de dispersion. L'écart type indique comment en
moyenne les valeurs de la variable sont groupées autour de la moyenne (espérance
mathématique).
Un faible écart type signifie que les valeurs sont peu dispersées autour de la moyenne.
Statistiquement, on observe que 75 % au minimum des observations appartiennent à l’intervalle
On dit aussi que la variance traduit la notion d'incertitude. Plus la variance est faible, moins le
résultat de l'expérience aléatoire est incertain. A la limite, une variable aléatoire de variance
nulle conduit à des expériences strictement identiques (i.e. le phénomène est complètement
déterministe, il n'y a donc plus aucune raison de garder la notion de variable aléatoire).
Propriétés
2
1) 𝑉(𝑋) = 𝐸(𝑋 − 𝐸(𝑋))2 = 𝐸(𝑋 2 ) − (𝐸(𝑋)) . (Théorème de Koenig)
2) Soit a est une constante, on a 𝑉(𝑋 + 𝑎) = 𝑉(𝑋) 𝑒𝑡 𝑉(𝑎𝑋) = 𝑎2 𝑉(𝑋).
24
Chapitre 4 Lois de probabilités usuelles
1 Lois de probabilités discrètes
Définition
On considère une expérience n’ayant que deux résultats possibles, par exemple succès et échec
(ou présence et absence d’une certaine caractéristique). On introduit la variable aléatoire X qui
associe la valeur 0 à l’échec (ou à l’absence de la caractéristique) et la valeur 1 au succès (ou à
la présence de la caractéristique). Cette variable aléatoire est appelée variable de Bernoulli.
Exemple On souhaite savoir si une cellule est atteinte par le Coronavirus. On associe la valeur
1 si elle est atteinte (succès) et la valeur 0 si elle est saine (échec).
Distribution de X
Espérance de X
2
Variance de X
Définition. Soit A une partie d’un ensemble E. On appelle fonction caractéristique de la partie
A dans E, l’application 1𝐴 ∶ 𝐸 → ℝ définie par :
1 𝑠𝑖 𝑥 ∈ 𝐴
1𝐴 (𝑥) = { .
0 𝑠𝑖𝑛𝑜𝑛
1 𝑠𝑖 𝜔 ∈ 𝐴
1𝐴 (𝜔) = {
0 𝑠𝑖𝑛𝑜𝑛
est une variable aléatoire discrète suivant une loi de Bernoulli de paramètre 𝐸(1𝐴 ) = 𝑃(𝐴).
25
1.2 Loi binomiale 𝓑 (n, p)
Soient les épreuves n fois répétées et indépendantes d’une même expérience de Bernoulli.
Chaque expérience n’a que deux résultats possibles : succès ou échec. Comme précédemment,
appelons p la probabilité de l’événement élémentaire succès et q=1 – p celle de l’événement
échec. A cette expérience multiple on associe une variable aléatoire X qui mesure le nombre de
succès obtenus.
Définition
La loi binomiale est la loi du nombre de succès lorsqu’on renouvelle n fois de manière
indépendante une épreuve de Bernoulli de paramètre p.
On a alors
𝒏
𝑿 = ∑ 𝑿𝒊 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 .
𝒊=𝟏
Distribution de X
La probabilité d’avoir 𝑘 succès lors de n épreuves successives est :
Remarques
c) En appliquant la formule du binôme, on montre que la somme des probabilités pour toutes
les valeurs de X est égale à 1 :.
𝑛
26
Espérance de X
De plus, comme les n variables de Bernoulli sont indépendantes, la variance de la loi ℬ(n, p)
n
est égale à la somme n des variances de Bernoulli : V(X) = V ( X ) = npq.
i 1
i
En résumé,
𝑋(Ω) = {0, 1, … , 𝑛} ⊂ ℕ
𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
𝑋 → ℬ(𝑛, 𝑝) ⟺ .
𝐸(𝑋) = 𝑛𝑝
{ 𝑉(𝑋) = 𝑛𝑝(1 − 𝑝)
Exemples
1) Dans une population bovine, on admet que la robe d’un animal se caractérise par la présence
d’un gène dominant S (robe unie) ou d’un gène récessif s (robe tachetée bleue).
3
Selon la théorie de Mendel un croisement d’animaux hétérozygotes (𝑆, 𝑠) × (𝑆, 𝑠) donne 4
1
robes unies et 4 robes tachetées bleues.
Sur un échantillon de 160 bovins issus de croisements (𝑆, 𝑠) × (𝑆, 𝑠) on note
𝑋: ≪ 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑′ 𝑎𝑛𝑖𝑚𝑎𝑢𝑥 𝑎𝑦𝑎𝑛𝑡 𝑢𝑛𝑒 𝑟𝑜𝑏𝑒 𝑡𝑎𝑐ℎ𝑒𝑡é𝑒 𝑏𝑙𝑒𝑢𝑒 ≫.
Déterminer la loi de X. Justifier votre réponse.
2) On considère une entreprise de service après-vente (SAV) qui intervient avec retard avec une
probabilité égale à 0,25. Un client a appelé à 8 dates différentes.
a) Préciser la loi de X, son espérance et sa variance.
c) Calculer la probabilité que ce client soit victime d’au plus 4 retards sachant qu’il en a subi
au moins un.
27
A l’issue de chaque appel, la probabilité d’intervention avec retard est la même. Les appels
peuvent donc être supposés indépendants les uns des autres. Par conséquent, X est la succession
de 8 épreuves de Bernoulli identiques et indépendantes. X suit donc une loi binomiale :
= C81 0,2510,7581 + C82 0,252 0,7582 + C83 0,2530,7583 C84 0,254 0,7584
Conclusion : 𝑃(𝑋≥1) (𝑋 ≤ 4) = ⋯
3) Une urne contient 70 boules rouges et 30 boules noires. On tire au hasard une boule de l’urne.
Expliquer pourquoi cette expérience est une épreuve de Bernoulli. On appelle succès « le tirage
d’une boule rouge ». Donner la loi de probabilité de la variable aléatoire
𝑋 = « nombre de boules rouges tirées».
En pratique lorsque l’on tire un échantillon de taille n parmi une population de taille N, le bon
sens veut que l’on ne prenne pas 2 fois le même individu. Cela signifie que le tirage se fait sans
remise. Les v.a de Bernoulli associées aux différents éléments de l’échantillon et indicatrices
de la présence ou absence d’un caractère donné, sont alors dépendantes. Le schéma binomial
n’est plus adapté. On utilise dans ce cas le schéma hypergéométrique.
Le schéma hypergéométrique est une succession d’épreuves de Bernoulli non
indépendantes.
Définition. Supposons que dans une population de taille N, on a deux types de populations. N1
𝑁1 𝑁2
individus type 1 en proportion 𝑝 = 𝑁 et N2 individus type 2 en proportion 𝑞 = 𝑁 .
28
On fait n tirages sans remise dans la population et la v.a X = « nombre individus de type 1
dans l’échantillon » suit la loi hypergéométrique H(N, n, p).
Remarques
𝑛 < 𝑁1
1) Les valeurs de 𝑋 sont les entiers compris entre 0 et 𝑛 si { 𝑒𝑡 .
𝑛 < 𝑁2
2) Cette loi de tirages sans remise est également la loi des sondages : en effet, si l’on interroge
n personnes issues d’une population globale de taille N, chaque individu est interrogé une seule
fois. En d’autres termes, il n’est pas remis dans la population initiale après avoir été sondé.
Remarque
𝑛
Lorsque la taille N de la population est très grande par rapport à n : (𝑁 ≤ 0,1), on peut
𝑁
approcher la loi Hypergéométrique par la loi binomiale B(n, p) où 𝑝 = 𝑁1 . De manière générale,
lorsque la taille de la population est grande, on utilise souvent la binomiale même pour un
« sondage sans remise ».
Exemples
1) Suite de l’exemple précédent
On considère une entreprise de service après-vente (SAV) qui intervient avec retard avec une
probabilité égale à 0,25. On considère 8 clients différents. On en contacte 4. On admet qu’un
client est mécontent s’il a fait l’objet d’une intervention avec retard. On note M le nombre de
mécontents. Donner la loi de M, son espérance et sa variance.
Réponse. M correspond, dans le cadre d’un sondage, au tirage de 4 clients dans une
population de 8 clients sans remise : on peut en effet penser que la personne chargée de l’étude
de satisfaction n’interroge chaque client qu’une seule fois.
En outre, avant de commencer les tirages des individus, on sait que la probabilité d’intervention
avec retard, donc de mécontentement est de 0,25, d’où :
29
𝑋(Ω) = {max(0 ; 4 − 8 × 0,75) ; min(4 ; 8 × 0,25)} ⊂ ℕ
𝑘 4−𝑘
𝐶8×0,25 𝐶8×0,75
𝑃(𝑋 = 𝑘) = 𝐶84
X H(8 ; 4 ; 0,25)
𝐸(𝑋) = 4 × 0,25
8−4
{ 𝑉(𝑋) = 4 × 0,25 × 0,75 × 8−1
𝑋(Ω) = {0 ; 1 ; 2} ⊂ ℕ
𝐶2𝑘 𝐶64−𝑘
𝑃(𝑋 = 𝑘) = 𝐶84
.
𝐸(𝑋) = 1
4
{ 𝑉(𝑋) = 0,75 × 7
Définition. 𝑋 est une v.a. suit une loi de Poisson de paramètre λ : 𝑃(𝜆) si et seulement si
𝑿(𝛀) = ℕ
X→ P (𝝀) ⇔ {𝑷(𝑿=𝒌)=𝒆−𝝀.𝝀𝒌.
𝒌!
𝑬(𝑿)=𝑽(𝑿)=𝝀
Modélisation
Lorsqu’un événement a une faible probabilité p d’apparition lors d’une épreuve de Bernoulli et
si l’on répète un grand nombre de fois cette épreuve (n) le nombre total de réalisations de
l’événement considéré suit à peu près une loi de Poisson de paramètre 𝜆 = 𝑛𝑝.
Remarque : plus p est petit, meilleure est l’approximation. Pour cette raison la loi de Poisson
a été appelée loi des phénomènes rares.
Les processus de Poisson sont fréquents dans les problèmes de gestion :
30
- nombre de pièces défectueuses dans un échantillon de grande taille prélevé dans une
production où la proportion des défectueuses est faible.
- nombre de quadruplés, quintuplés par an dans un pays donné.
- nombre d’appels intercontinentaux sur une ligne pendant une durée donnée.
- nombre d’erreurs commises au cours d’une longue suite d’opérations (inventaire).
- nombre de coquilles dans une page d’un livre.
- pannes de machine.
- émission de particules radioactives.
Exemple Un certain vaccin provoque chez un individu sur 800 une réaction dangereuse.
Quelle probabilité y a-t-il, en vaccinant 3000 personnes qu’il y ait
a) trois réactions dangereuses ? b) plus de deux réactions dangereuses ?
31
Définition. X suit la loi géométrique de paramètre p (G(p)), si elle est égale au nombre
d’épreuves de Bernoulli indépendantes qu’il faut réaliser pour obtenir pour la 1ère fois
l’événement (succès) de probabilité p.
Remarque. 𝑃(𝑋 = 𝑘) signifie « probabilité que le 1er succès soit obtenu à l’issue de la
𝑘 𝑖è𝑚𝑒 épreuve. En d’autres termes, les k-1 premières épreuves se sont soldées par des échecs et
la
𝑘 𝑖è𝑚𝑒 par un succès.
Soit 𝐸𝑖 = « obtention d’un échec à l’issue de la i-ième épreuve » et Si =« obtention d’un succès
à l’issue de la i-ième épreuve ». Dès lors : 𝑃(𝑋 = 𝑘) = 𝑃(𝐸1 𝐸2 . . . 𝐸𝑘−1 𝑆𝑘 ).
Comme les épreuves sont supposées indépendantes :
⏟× 𝑞 × … × 𝑞 × 𝑝 = 𝑞 𝑘−1 𝑝.
𝑃(𝑋 = 𝑘) = 𝑃(𝐸1 ) × 𝑃(𝐸2 ) ×. . .× 𝑃(𝐸𝑘−1 ) × 𝑃(𝑆𝑘 ) = 𝑞
𝑘−1 𝑓𝑜𝑖𝑠
NB : il faut au moins réaliser une épreuve pour obtenir un succès. En outre, il faudra
éventuellement un nombre infini d’épreuves pour obtenir un succès, d’où :
Loi de probabilité
𝑿(𝛀) = ℕ∗
𝑷(𝑿 = 𝒌) = 𝒒𝒌−𝟏 𝒑 .
𝑿 → 𝑮(𝒑) ⇔
𝟏/𝒑
{ 𝒒/𝒑𝟐
On considère une entreprise de service après-vente (SAV) qui intervient avec retard avec une
probabilité égale à 0,25. Soit Y la loi du rang du 1er retard. Préciser la loi de Y, son espérance
et sa variance.
Les appels qui définissent une loi de Bernoulli étant identiques et indépendants, le temps
d’attente du 1er retard définit une loi géométrique de même paramètre que la loi de Bernoulli
précédemment évoquée :
𝑿(𝛀) = ℕ∗
𝑷(𝑿 = 𝒌) = 𝟎. 𝟕𝟓𝒌−𝟏 𝟎. 𝟐𝟓
𝟏
𝑿 → 𝑮(𝟎. 𝟐𝟓) ⇔ =𝟒 .
𝟎, 𝟐𝟓
𝟎, 𝟕𝟓
{ 𝟎, 𝟐𝟓𝟐
Exemple-Remarque On lance une pièce truquée jusqu’à ce qu’on obtienne une fois "Pile". On
note p la probabilité de tomber sur "Pile". On veut connaitre la probabilité d’avoir "Pile" au
premier lancer, au deuxième, . . ., au 𝑘 𝑖è𝑚𝑒 lancer, . . .. On note X le nombre de lancers
nécessaires pour avoir un succès.
Une formule utile quand on veut faire des calculs avec la loi géométrique :
𝟏 − 𝒙𝒏
𝟏 + 𝒙 + 𝒙𝟐 + ⋯ + 𝒙𝒏 = .
𝟏−𝒙
32
1.5.2 La loi de Pascal
La loi de Pascal est la généralisation de la loi géométrique lorsque l’on s’intéresse à l’obtention
pour la 𝑘 𝑖è𝑚𝑒 fois de l’événement de probabilité p.
Définition. X suit la loi de Pascal (𝑃𝑎 (𝑝) ), si elle est égale au nombre d’épreuves de Bernoulli
indépendantes qu’il faut réaliser pour obtenir pour la 𝑘 𝑖è𝑚𝑒 fois l’événement de probabilité p.
Remarque. La loi de Pascal décrit le nombre d'épreuves indépendantes nécessaires pour obtenir
k fois l'événement étudié. La probabilité d'apparition de l'événement à une épreuve est p, elle
est constante tout le long de l’expérience.
Exemple. On s'intéresse au nombre de jets nécessaires pour que le côté "pile" de la pièce
1
apparaisse k fois. A chaque jet, la probabilité d'apparition de "pile" est p = .
2
Loi de probabilité
𝑋(Ω) = {𝑘, 𝑘 + 1, … }
𝑘−1 𝑘 (1
𝑃(𝑋 = 𝑥) = 𝐶𝑥−1 𝑝 − 𝑝)𝑥−𝑘
𝑋 → 𝑃𝑎 (𝑝) ⇔
𝐸(𝑋) = 𝑘/𝑝
{ 𝑉(𝑋) = 𝑘𝑞/𝑝2
Applications
La loi Binomiale et la loi de Pascale interviennent particulièrement en contrôle de qualité
mais aussi dans la surveillance des événements dont une certaine fréquence de survenue
est interprétée en terme de signal d’alarme.
Exercice Pour obtenir un correspondant téléphonique le taux de succès d’un appel est de
70%. On note T le nombre d’appels nécessaires pour obtenir ce correspondant 4 fois.
Déterminer la loi et l’espérance de T.
Il existe des variables aléatoires non discrètes, qui prennent toutes les valeurs d’un intervalle de
ℝ (borné ou non). On dit alors que la variable est continue. On s’intéresse à des événements
du type : « X est compris entre les réels a et b » soit « 𝑎 𝑋 𝑏 ».
Exemples Le temps d’attente à un arrêt de bus, la durée de vie d’un transistor, la distance du
point d’impact au centre d’une cible, mesures de température, précipitations, etc.
Les fonctions de répartition de ces variables sont des fonctions continues. Dans ce cas, on peut
dériver la fonction de répartition, et obtenir ainsi directement des informations sur les valeurs
les plus probables de ces variables.
33
2.1 Densités de probabilités
Définition On dit qu'une variable aléatoire X est à densité s'il existe une fonction f de ℝ dans
ℝ, positive ou nulle, et telle que, pour tout sous-ensemble B de ℝ :
𝑃(𝑋 ∈ 𝐵) = ∫ 𝑓(𝑥)𝑑𝑥
𝐵
1) 𝑓(𝑥) ≥ 0 ∀𝑥 ∈ ℝ
+∞
.
2) ∫ 𝑓(𝑥)𝑑𝑥 = 1
−∞
dFX ( x)
f X ( x) .
dx
FX ( x)
x
f X (u )du .
La probabilité d'un intervalle est aussi directement calculable par intégration de la densité de
probabilité.
𝑏 𝑏 𝑎
𝑃(𝑎 < 𝑋 ≤ 𝑏) = ∫ 𝑓𝑋 (𝑡) 𝑑𝑡 = ∫ 𝑓𝑋 (𝑡) 𝑑𝑡 − ∫ 𝑓𝑋 (𝑡) 𝑑𝑡 = 𝑃(𝑋 ≤ 𝑏) − 𝑃(𝑋 ≤ 𝑎).
𝑎 −∞ −∞
Remarque : 𝑃(𝑎 𝑋 𝑏) est aussi noté 𝑃(𝑋 ∈ [𝑎, 𝑏]) et 𝑃(𝑋 𝑐) est noté 𝑃(𝑋 ∈ [𝑐, +∞[).
Propriétés
i) La probabilité que X prenne une valeur isolée de [a, b] est nulle. En effet, pour tout réel c de
𝑐
[a, b], 𝑃(𝑋 = 𝑐) = ∫𝑐 𝑓(𝑥)𝑑𝑥 = 0.
34
ii) 𝑃(𝑋 ∈ [𝑎, 𝑏]) = 𝑃(𝑋 ∈ [𝑎, 𝑏[) = 𝑃(𝑋 ∈]𝑎, 𝑏]) = 𝑃(𝑋 ∈ ]𝑎, 𝑏[ ).
̅̅̅̅̅̅̅
iii) Si [𝑎, 𝑏] désigne le complémentaire de [𝑎, 𝑏] dans un intervalle I de ℝ, alors
̅̅̅̅̅̅̅
𝑃(𝑋 ∈ [𝑎, 𝑏] ) = 1 − 𝑃(𝑋 ∈ [𝑎, 𝑏]).
Définition L'espérance (ou valeur moyenne) d'une variable aléatoire X admettant la densité
f X ( x ) est définie par 𝐸(𝑋) = ∫−∞ 𝑥𝑓𝑋 (𝑥) 𝑑𝑥 ; EX xi P( X xi ) , pour les variables
+∞
aléatoires discrètes.
Propriété Soit X une variable aléatoire à densité, et 𝜑 ∶ ℝ → ℝ une application continue telle
que ∫ℝ |𝜑(𝑥)|𝑓𝑋 (𝑥)𝑑𝑥 < ∞. Alors, l’espérance de la variable aléatoire 𝜑(X) satisfait
𝐸(𝜑(𝑋)) = ∫ℝ 𝜑(𝑥)𝑓𝑋 (𝑥)𝑑𝑥.
Remarque. Observez la similarité formelle avec le résultat correspondant pour les variables
discrètes
𝐸(𝜑(𝑋)) = ∑ 𝜑(𝑥)𝑓𝑋 (𝑥).
𝑥∈𝑋(Ω)
L’espérance d'une variable aléatoire nous indique tout simplement la position de son centre de
gravité, mais ne nous dit rien sur la forme de la densité. Les moments d'ordre 2 donnent une
information sur la dispersion des valeurs de la variable aléatoire.
La valeur quadratique moyenne d'une variable aléatoire X qui admet une densité de probabilité
f X ( x ) est par définition
+∞
2)
𝐸(𝑋 =∫ 𝑥 2 𝑓𝑋 (𝑥) 𝑑𝑥.
−∞
2.3.2 Variance
La variance d'une variable aléatoire X qui admet une densité de probabilité f X ( x ) est par
définition
35
+∞
𝑉(𝑋) = 𝜎𝑋2 = 𝐸(𝑋 − 𝐸(𝑋))2 = ∫ (𝑥 − 𝐸(𝑋))2 𝑓𝑋 (𝑥) 𝑑𝑥.
−∞
Propriétés
(i) 2X 0 .
Définition On appelle loi uniforme sur l'intervalle [a, b] de ℝ, la loi de probabilité continue
sur [a, b] dont la densité est la fonction constante f définie par :
1 / (b a) a x b
f X ( x) .
0 sinon
Remarques. i) Pour cette loi, la probabilité d'un intervalle [, ] inclus dans [a , b] est
𝜷 𝟏 𝜷−𝜶
égales à : P ([ ; ] ) = ∫𝜶 𝒅𝒙 = .
𝒃−𝒂 𝒃−𝒂
ii) Les erreurs de quantification sont en général bien décrites par cette loi.
Moments Si une variable X suit la loi uniforme sur l'intervalle [a, b], alors
𝑎+𝑏 (𝑏−𝑎)2
𝐸(𝑋) = 𝑒𝑡 𝑉𝑎𝑟(𝑋) = .
2 12
36
Exercice Soit X une variable aléatoire de loi uniforme sur [0, 1].
a) Calculer directement 𝐸(𝑋) et 𝑉(𝑋).
b) On pose 𝑌 = 𝑎 + (𝑏 − 𝑎) 𝑋. Que valent 𝐸(𝑌) et 𝑉(𝑌) ? Quelle est la loi de Y ?
Qu'en conclut-on ?
Définition Soit λ un réel strictement positif. On appelle loi exponentielle de paramètre λ, la loi
de probabilité dont la densité 𝑓𝜆 est la fonction définie sur [0 ; + [ par :
𝑓𝜆 (𝑥) = 𝜆𝑒 −𝜆𝑥 .
Moments Si X est une variable aléatoire suivant la loi exponentielle de paramètre 𝜆, alors
1 1
𝐸(𝑋) = 𝜆 et 𝑉(𝑋) = 𝜆2 .
Remarques.
i) Cette loi est par exemple couramment utilisée pour décrire le temps de transmission d'un
message en systèmes de communication.
ii) La durée de vie, exprimée en années, d’un noyau radioactif ou d’un composant électronique
est modélisée par une variable aléatoire suivant une loi exponentielle.
iii) La loi exponentielle est celle de la mortalité des êtres qui ne seraient pas soumis au
vieillissement. A chaque moment ils ont la même probabilité de mourir dans l’unité de temps
qu’il leur reste, quel que soit leur âge.
La loi Normale est une loi centrale dans la théorie des probabilités. Elle est notamment
très utilisée en statistique. Une grandeur influencée par un grand nombre de paramètres
indépendants est souvent modélisée par une loi normale (par exemple, les erreurs de mesures
lors d’une expérience).
La densité Gaussienne de paramètres et décrit une variable aléatoire continue avec valeurs
dans ℝ donnée par :
1
1 − (𝑥−𝜇)2
𝑓𝑋 (𝑥) = 𝜎√2𝜋 𝑒 2𝜎2 𝑎𝑣𝑒𝑐 𝑥 ∈ ℝ.
La fonction de répartition correspondante à cette densité peut être trouvée tablée dans de
nombreuses références.
Moments Si une variable aléatoire X suit une loi Gaussienne de paramètres et , alors
𝑬(𝑿) = 𝝁 𝒆𝒕 𝑽(𝑿) = 𝝈𝟐 .
37
Calcul des probabilités d’une loi normale
centrée réduite.
Une application directe de la fonction π est la lecture des probabilités sur la table de la loi
normale réduite. Sa courbe représentative est donnée par la figure 3.
Fig.3
Remarques. Cette courbe est symétrique par rapport à l’axe des ordonnées.
L’aire totale comprise entre la courbe et l’axe des abscisses est égale à 1.
La table donne directement le résultat. Il suffit de trouver les deux premiers chiffres de t
dans la colonne, soit 1,6. Le troisième chiffre de t est indiqué dans la première ligne, soit
0, 07. La réponse est donnée à l’intersection de la ligne correspondant à 1,6 et de la colonne
correspondant à 0,07, soit P(T ≤ 1,67) = 0,952 5.
38
La table suivante donne quelques valeurs de la fonction de répartition 𝚽 de la
distribution normale standard pour différentes valeurs non négatives de z :
z PZ z .
Exercice
a) Soit X une variable aléatoire de loi N (0,1). Que valent : P( X -1 ) P( -1 < X < 2 ) ?
39
2.4.4 Lois associées à la loi normale
Les lois de probabilité que nous abordons à présent sont les lois les lois dites associées, voire
dérivées, de lois normales. Elles apparaissent principalement en statistique.
distribuées de loi N (0,1). La variable aléatoire 𝑋 = ∑𝑛𝑘=1 𝑋𝑘2 a pour loi, la loi de 𝜒 2 à n
degrés de liberté (d.d.l.).
Remarque : Le point important est que c’est par ce type d’expression que sont introduites
généralement les variables aléatoires de loi 𝜒 2 (𝑛). Il est extrêmement rare d’avoir recours à la
formule de la densité. Dans la pratique, on se sert de tables ou de logiciels de calcul pour évaluer
des probabilités liées à ces lois.
La loi de Pearson ou loi de χ2 (Khi deux) trouve de nombreuses applications dans le cadre
distribution théorique et le test d’indépendance de deux caractères qualitatifs. Ce sont les test
du khi-deux.
Propriétés
P1. Si X1, X2,…, Xi,…, Xn sont n variables normales centrées réduites et s’il existe k
relations de dépendance entre ces variables alors 𝑋12 + 𝑋22 + ⋯ + 𝑋𝑖2 + ⋯ + 𝑋𝑛2 suit une
P2. Si U suit une loi de Pearson à n d.d.l., si V suit une loi de Pearson à m d.d.l., et si U et V
sont indépendantes alors U + V suit une loi de Pearson à n + m d.d.l., U-V suit une loi de
Pearson à n-m d.d.l. (si n < m).
Espérance et variance
40
Exercice. a) Soit X une variable aléatoire qui suit la loi 𝜒 2 (6). Que vaut 𝑃( 3 ≤ 𝑋 ≤ 9) ?
La loi de Student (ou loi de Student-Fisher) est utilisée lors des tests de comparaison de
anglais William Gosset qui travaillait comme conseiller à la brasserie Guinness et qui publia
en 1908 sous ce nom, une étude portant sur cette variable aléatoire.
Définition. Soit U une variable aléatoire suivant une loi normale réduite N (0,1) et V une
variable aléatoire suivant une loi de Pearson à n degrés de liberté 𝜒 2 (𝑛), U et V étant
𝑈
indépendantes, on dit alors que 𝑇𝑛 = 𝑉
suit une loi de Student à n degrés de liberté.
√
𝑛
Espérance et variance
Exercice. (a) Soit X une variable aléatoire qui suit la loi de Student T12.
La loi de Fisher-Snedecor est utilisée pour comparer deux variances observées et sert surtout
dans les très nombreux tests d’analyse de variance et de covariance.
Définition Soit U et V deux variables aléatoires indépendantes suivant une loi de Pearson
respectivement à n et m degrés de liberté.
𝑈⁄𝑛
On dit que 𝐹 = 𝑉⁄𝑚 suit une loi de Fisher-Snedecor à n et m degrés de liberté.
Espérance et variance
𝑚
L’espérance de la variable de Fisher-Snédecor est : E(F) = 𝑚−2 , si m > 2.
2𝑚2 (𝑛+𝑚−2)
La variance de la variable de Fisher-Snédecor est : 𝑉(𝐹) = 𝑛(𝑚−2)2 (𝑚−4) si m > 4.
41
Chapitre 5 Convergences
1 Convergence en probabilité
Soit X une variable aléatoire d'espérance E(X) et de variance V(X), et soit a un réel positif.
2
Notons Y la variable aléatoire définie par : 𝑌(𝜔) = {𝑎 𝑠𝑖 | X(ω) − E(X) | ≥ a .
0 𝑠𝑖𝑛𝑜𝑛
2
On a bien sûr : 𝑌 ≤ (𝑋 − 𝐸(𝑋))2, et donc : 𝐸(𝑌) ≤ 𝐸(𝑋 − 𝐸(𝑋)) .
Remarque. Cette inégalité n'a bien sûr pas d'intérêt lorsque les probabilités
Conséquence Pour que (Xn) converge en probabilité vers X, il faut et il suffit que
𝐸(𝑋𝑛 − 𝑋) → 0 et 𝑉(𝑋𝑛 − 𝑋) → 0 lorsque n !𝑛 → +∞ (la démonstration passe par
l’inégalité de Bienaymé-Tchebychev).
Les lois des grands nombres s’intéressent aux limites de sommes du type
42
𝑆𝑛
d'écart-type 𝜎, et intéressons-nous à la moyenne arithmétique M = de ces variables
𝑛
𝜎2
E(M) = 𝜇 et V(M) = .
𝑛
𝜎2
𝑃(|𝑀 − 𝜇| ≥ 𝜀) ≤ .
𝑛𝜀 2
On en déduit le théorème connu sous le nom de loi faible des grands nombres :
Théorème 1.1 Soit (Xn)n≥0 une suite de variables aléatoires indépendantes et de même loi,
d'espérance 𝜇 et d'écart-type 𝜎. Alors, pour tout a strictement positif :
𝑋1 +⋯+𝑋𝑛
lim 𝑃 (| − 𝜇| > 𝑎) = 0.
𝑛→ +∞ 𝑛
𝑋1 +⋯+𝑋𝑛
On dit que la suite ( )n≥0 converge en probabilité vers 𝜇.
𝑛
2 Convergence en loi
Définition 2.1 Soient (Xn) et X des variables aléatoires sur un même espace probabilité (Ω,P),
de fonctions de répartition respectives Fn et F ; on dit que les (Xn) convergent vers X en loi
ℒ
(et on note 𝑋𝑛 → 𝑋) si en tout point x où F est continue, les Fn(x) convergent vers F(x).
Théorème 2.1
43
Théorème 2.2
Soient 𝑋1 , 𝑋2 , … , 𝑋𝑛 des variables aléatoires indépendantes de même loi de probabilité, de
même espérance mathématique 𝜇 et de même variance 𝜎 2 , lorsque n est
« suffisamment grand »,
La loi de probabilité de 𝑆𝑛 = 𝑋1 + 𝑋2 + … + 𝑋𝑛 suit « approximativement » la loi
normale de moyenne 𝑛𝜇 d’écart type 𝜎√𝑛, notée N (𝑛𝜇, 𝜎√𝑛).
𝑆𝑛 𝜎
La loi de probabilité de 𝑌𝑛 = suit « approximativement » la loi normale N (𝜇, ).
𝑛 √𝑛
Remarques
● Le théorème central limite s’applique quel que soit la loi de probabilité suivie par les
variables aléatoires discrètes ou continues, pourvu que les épreuves soient indépendantes,
● Grâce au théorème de la limite centrale, on peut voir que des phénomènes dont la variation
est engendrée par un nombre important de causes indépendantes sont généralement susceptibles
d’être représentés par une loi normale.
Nous listons dans cette sous-section des règles communément utilisées pour approcher des lois
de variables aléatoires par d'autres lois plus simples à calculer.
44
3. Lois d’échantillonnages
En statistique, il est général impossible d’étudier un caractère sur toute une population de taille
N élevée connue. On considère donc un échantillon d’effectif n puis on étudie le caractère sur
cet échantillon. On généralise les propriétés obtenues à partir de l’échantillon à la population.
Dans ce cas, les paramètres du caractère étudié dans la population sont connus et on en déduit
les propriétés sur l’ensemble des échantillons prélevés dans la population.
Nous n’envisagerons dans cette partie, que des échantillons aléatoires, c’est à dire que tout
élément de l’échantillon est choisi au hasard, et de plus, les choix sont indépendants car
supposés avec remise. L’ensemble des échantillons de taille n est appelé échantillonnage de
taille n. Nous allons étudier, dans ces conditions, la loi d’échantillonnage des moyennes et la
loi d’échantillonnage des fréquences.
Etant donné une population de taille N et X une variable aléatoire définissant le caractère étudié
telle que : 𝐸(𝑋) = 𝜇 et 𝜎(𝑋) = 𝜎.
1 1
𝐸(𝑌𝑛 ) = (𝐸(𝑋1 ) + 𝐸(𝑋2 ) + ⋯ + 𝐸(𝑋𝑛 )) = (𝑛𝐸(𝑋)) = 𝐸(𝑋) = 𝜇.
𝑛 𝑛
1 1 2
𝜎 2 (𝑋)
𝑉(𝑌𝑛 ) = 2 (𝑉(𝑋1 ) + 𝑉(𝑋2 ) + ⋯ + 𝑉(𝑋𝑛 )) = 2 (𝑛𝜎 (𝑋)) = .
𝑛 𝑛 𝑛
𝜎
D’où 𝜎(𝑌𝑛 ) = .
√𝑛
45
𝑋 : Ω → {0, 1}
𝜔 ↦ 1 si 𝜔 possède le caractère (succès)
𝜔 ↦ 0 𝑠𝑖𝑛𝑜𝑛.
1 1 𝑆𝑛 1 𝑝(1 − 𝑝)
𝐸(𝑓𝑛 ) = (𝐸(𝑆𝑛 )) = (𝑛𝑝) = 𝑝 𝑒𝑡 𝑉(𝑓𝑛 ) = 𝑉 ( ) = 2 (𝑉(𝑆𝑛 )) = .
𝑛 𝑛 𝑛 𝑛 𝑛
𝑝(1−𝑝)
D’où 𝜎(𝑓𝑛 ) = √ .
𝑛
46
Chapitre 5 Vecteurs aléatoires
Soit (Ω, 𝐸Ω , 𝑃) l'espace de probabilité associé à une certaine expérience aléatoire.
Un vecteur aléatoire est un vecteur (X1, X2,…, Xn) composé de variables aléatoires définies sur
le même espace de probabilité (Ω, 𝐸Ω , 𝑃).
Dans ce paragraphe, nous considérons le cas n = 2 ou les variables aléatoires sont de même
nature, les deux discrètes ou continues.
Exemples . 1) Expérience aléatoire : choisir un individu dans une population P, X : taille d’un
individu, Y : poids d’un individu.
2) Expérience aléatoire : 2 jets successifs d’un dé, X = nombre de points du 1er jet,
Y = somme des points.
Remarque. Un vecteur aléatoire (X, Y) est discret si X et Y sont des v.a. discrètes.
Un vecteur aléatoire (X, Y) est continu si X et Y sont des v.a. continues.
Définition 1.1 Soit X et Y deux variables aléatoires discrètes définies sur un même univers Ω
𝑋:Ω →ℝ 𝑌:Ω → ℝ
𝜔↦𝑥 𝜔 ↦ 𝑦.
Le couple de variables aléatoires (X, Y) noté 𝑍 = (𝑋, 𝑌), est une variable aléatoire à valeurs
dans ℝ2
𝑍 ∶ Ω → ℝ2
𝜔 ↦ (𝑥, 𝑦).
La loi de probabilité de (X, Y) peut être représentée dans un tableau appelé (tableau de
contingence). Dans ce tableau, nous notons 𝑝𝑖𝑗 = 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ),
47
𝑝𝑖 = ∑ 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) 𝑒𝑡 𝑞𝑗 = ∑ 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ).
𝑦𝑗 ∈𝑌(Ω) 𝑥𝑖 ∈𝑋(Ω)
Y
y1 y2 … yj … ym Total
X
… …
… …
Total q1 q2 … qj … qm 1
Propriétés 1.1
Définition 2.1
La fonction de répartition conjointe de deux variables aléatoires définies sur une même
expérience aléatoire est par définition : F(x, y) = FX,Y (x, y) = P(X ≤ x , Y ≤ y) .
48
Exemple 1
On lance une pièce 3 fois et on note le résultat.
Soit X : le nombre total de PILE obtenus. Y : le nombre de PILE obtenus au premier lancer.
La loi conjointe de X et Y est donnée par le tableau suivant :
X 0 1 2 3
Y
0
Propriétés 2.1
(iii) P( x1 X x2 ,Y y) FX ,Y ( x2 , y) FX ,Y ( x1, y) .
Remarque
Les fonctions de répartition marginales sont données par les formules :
3. Distributions marginales
Pour étudier chacune des v.a. d'un vecteur aléatoire, on a recours aux distributions marginales.
Définition 3.1
Si (X, Y) est un vecteur aléatoire discret de loi conjointe p, alors les distributions marginales
sont :
𝑖) 𝑝𝑋 (𝑥) = ∑ 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦)
𝑦∈𝑌(Ω)
pour tout 𝑥 ∈ 𝑋(Ω) ;
Remarque
∑ 𝑝𝑋 (𝑥) = ∑ 𝑝𝑌 (𝑥) = 1.
𝑥∈𝑋(Ω) 𝑦∈𝑌(Ω)
49
Exemple 2
On lance une pièce 3 fois et on note le résultat. Soit X : le nombre total de PILE obtenus.
Y : le nombre de PILE obtenus au premier lancer.
Les distributions marginales peuvent être calculées en additionnant les lignes et les colonnes
du tableau suivant :
0 1 2 3 𝒑𝒀 (𝒚)
X
Y
0 1/8 2/8 1/8 0 4/8
1 0 1/8 2/8 1/8 4/8
𝒑𝑿 (𝒙) 1/8 3/8 3/8 1/8
Exercice
𝑖+𝑗
Soit un couple (X, Y) à valeurs entières tel que : ∀ 𝑖 ∈ ℕ, ∀𝑗 ∈ ℕ, 𝑃(𝑋 = 𝑖, 𝑌 = 𝑗) = 𝑎 𝑖!𝑗! .
a) Calculer la constante a.
b) Calculer les lois marginales de X et Y.
Remarque
La donnée de la loi du couple (X, Y) permet donc de connaitre les lois de X et de Y.
Attention! La réciproque est fausse : la connaissance des lois marginales ne suffit pas en
général pour reconstituer la loi du couple. Deux couples de lois conjointes différentes peuvent
avoir des lois marginales identiques.
Posons 𝑧 = 𝜑(𝑥, 𝑦), ∀𝑥 ∈ 𝑋(Ω) 𝑒𝑡 ∀𝑦 ∈ 𝑌(Ω). On obtient une famille finie ou dénombrable
de réels.
On pose alors
𝑃(𝜑(𝑋, 𝑌) = 𝑧) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦).
{𝜑(𝑥,𝑦)=𝑧}
50
4.2 Somme de deux variables aléatoires
On a
𝑃(𝑋 + 𝑌 = 𝑧) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦).
{𝑥+𝑦=𝑧}
Remarque
Soient X et Y deux v.a. à valeurs dans ℕ. On pose S = X + Y. Alors S prend des valeurs
entières, et pour tout entier k :
𝒌
Exemple : Soit (X, Y) un couple discret dont la loi conjointe est donnée par :
𝑿(𝛀) = 𝒀(𝛀) = ℕ
{ 𝟏 𝒊+𝒋
∀𝒊 ∈ ℕ, ∀𝒋 ∈ ℕ, 𝑷(𝑿 = 𝒊, 𝒀 = 𝒋) = 𝟐 .
𝟐𝒆 𝒊! 𝒋!
Trouver la loi de 𝑆 = 𝑋 + 𝑌.
Soit X et Y deux variables aléatoires. La différence 𝑋 – 𝑌 est une variable aléatoire notée D.
La loi de probabilité de D est obtenue en associant, à chaque valeur d de D, la somme des
probabilités correspondant à tous les couples dont la différence des termes est égale à d.
On a
𝑃(𝑋 − 𝑌 = 𝑑) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦).
{𝑥−𝑦=𝑑}
Soit X et Y deux variables aléatoires. Le produit 𝑋𝑌 est une variable aléatoire notée Z.
La loi de probabilité de Z est obtenue en associant, à chaque valeur 𝑧 de Z, la somme des
probabilités correspondant à tous les couples dont le produit des termes est égale à 𝑧.
On a
𝑃(𝑋𝑌 = 𝑧) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦).
{𝑥𝑦=𝑧}
51
Espérance et variance de X et Y
En utilisant les distributions marginales pour le vecteur aléatoire (X, Y), on peut calculer
l'espérance et la variance des v.a. individuelles X et Y.
Exemple. On lance une pièce 3 fois et on note le résultat. Soit X : le nombre total de PILE
obtenus. Y : le nombre de PILE obtenus au premier lancer.
X 0 1 2 3 𝒑𝒀 (𝒚)
Y
0 1/8 2/8 1/8 0 4/8
1 0 1/8 2/8 1/8 4/8
𝒑𝑿 (𝒙) 1/8 3/8 3/8 1/8
1. Densité conjointe
Définition 1.1 On appelle fonction de densité sur ℝ𝟐 une fonction f de ℝ𝟐 dans ℝ ayant les
propriétés suivantes :
i) f est positive,
ii) - ou bien f est continue sur ℝ𝟐 ,
- ou bien il existe un domaine D de ℝ𝟐 tel que f est continue sur D, et nulle sur le
complémentaire de D,
iii) ∬𝐷 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1
Propriété 1.1 Le couple aléatoire (X, Y) est dit continu ou à densité s'il existe une fonction f
ayant les trois propriétés ci-dessus telle que :
𝑥 𝑦
𝟐
∀ (𝑥, 𝑦) ∈ ℝ , 𝑃(𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦) = ∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣 .
−∞ −∞
f est une densité de probabilité du couple (X, Y).
52
●𝑓(𝑥, 𝑦) = 1[0,1]2 (𝑥, 𝑦): on dit que (X, Y) suit la loi uniforme sur [0, 1] × [0, 1].
●𝒇(𝒙, 𝒚) = (𝒙 + 𝒚)𝟏{𝟎≤𝒙≤𝟏,𝟎≤𝒚≤𝟏} .
Définition 1.2
La fonction de répartition du couple (X, Y) est définie par :
Remarques : i) On obtient la densité conjointe d'un couple continu en dérivant deux fois (en
x et en y) sa fonction de répartition conjointe en tout point où cela est possible.
L'ordre de dérivation n'a pas d'importance :
𝑑2 𝐹𝑋,𝑌 (𝑥, 𝑦)
𝑓𝑋,𝑌 (𝑥, 𝑦) = .
𝑑𝑥𝑑𝑦
ii) D'après le théorème de Schwarz, en tout point (x, y) où les dérivées partielles secondes
sont continues, on a :
Remarques.
Exercice
● Pour (X, Y) de densité 𝑓(𝑥, 𝑦) = (𝑥 + 𝑦)1{0≤𝑥≤1, 0≤𝑦≤1} ; calculer 𝑃(𝑋 > 1/2, 𝑌 > 1/2).
● Pour (X, Y) de densité 𝑓(𝑥, 𝑦) = 𝑒 −𝑦 1𝐼𝑅+ (𝑥)1[𝑥,+∞[ (𝑦) ; calculer 𝑃(𝑋 + 𝑌 ≤ 1).
● Soit (X, Y ) un couple dont la loi conjointe est une loi uniforme sur [0, 1] × [0, 1]
1 𝑠𝑖 (𝑥, 𝑦) ∈ [0,1] × [0,1]
𝑓(𝑥, 𝑦) = { .
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠
53
Soit D = {(x, y) ∈ ℝ2 : x > 0, y > 0 et x + y < 1}.
Calculer P((X, Y ) ∈ D).
2. Densité marginale
Définition 2.1
La densité marginale fX de X est la fonction : x f X ( x) f
X ,Y ( x, y)dy .
De même, la densité marginale fY de Y est la fonction : y fY ( y) f
X ,Y ( x, y)dx.
Remarques
● Comme dans le cas discret, la connaissance des densités marginales ne suffit pas en
général pour reconstituer la densité du couple.
● Si le couple (X, Y) a une densité, les v.a. réelles X et Y sont des v.a. à densité, mais la
réciproque est fausse.
Exemple. Soit la fonction densité conjointe 𝑓(𝑥, 𝑦) = 𝑦𝑒 −(𝑥+𝑦) 1𝐼𝑅+ (𝑥)1𝐼𝑅+ (𝑦).
Déterminer les densités marginales fX et fY.
Exercice
2 2 [−1, 1] 𝑒𝑡 𝑦 ∈ [−1, 0]
Soit 𝑓(𝑥, 𝑦) = {𝑘𝑥 + 𝑦 − 𝑥𝑦 , 𝑥 ∈
0 𝑠𝑖𝑛𝑜𝑛
a) Déterminer k pour que f soit effectivement une fonction densité d’un couple (X, Y ).
b) Calculer P[{0 < X < 1} ∩{−1/2 < Y < 0}].
c) Déterminer les fonctions de densité marginales.
d) Déterminer la fonction de répartition conjointe.
54
La loi de (X, Y) étant connue, on cherche la loi du couple (U, V).
Définitions et propriétés
Soient D1 et D2 deux ouverts de ℝ𝟐 .
𝜕𝜑 𝜕𝜑
(𝑥, 𝑦) (𝑥, 𝑦)
𝜕𝑥 𝜕𝑦
𝐽Φ (𝑥, 𝑦) = 𝑑é𝑡 .
𝜕𝜓 𝜕𝜓
(𝑥, 𝑦) (𝑥, 𝑦)
( 𝜕𝑥 𝜕𝑦 )
A retenir : De même qu'en dimension 1, on remplace u par 𝜑(x) dans l'expression dela fonction
k et formellement du par 𝜑'(x)dx, en dimension 2, pour passer des variables (u, v) aux variables
(x, y), on remplace u et v par leur expression en fonction de x et y dans la fonction à intégrer et
on remplace formellement dudv par |𝐽Φ (𝑥, 𝑦)|dxdy.
Il ne faut surtout pas oublier de modifier le domaine sur lequel on intègre, de même qu'en
dimension 1, lorsqu'on fait un changement de variable il faut modifier les bornes de l'intégrale.
Le but du changement de variable est de transformer une intégrale double compliquée en une
plus simple à calculer ; il arrive fréquemment que par un changement de variable bien choisi,
on se ramène à une fonction à variables séparables à intégrer sur un pavé.
55
Exemple. Cordonnées polaires
Soit Φ l'application de ℝ+ × [0,2𝜋] dans ℝ𝟐 définie par : (u, v) = Φ(𝜌, 𝜃) avec
𝑢 = 𝜌𝑐𝑜𝑠(𝜃)
{ .
𝑣 = 𝜌𝑠𝑖𝑛(𝜃)
On a, 𝐽Φ (𝜌, 𝜃) = 𝜌 d'où
Théorème 3.2 Soit (X, Y) un couple de v.a.r. densité f à partir de laquelle on définit le
domaine D. Soit un C1-difféomorphisme défini sur D (on peut sans restreindre la généralité
supposer D ouvert). Alors le couple aléatoire (U, V) = (X, Y) admet une densité sur ℝ𝟐 .
Remarque. Pour déterminer une densité de (U, V), on cherche donc une fonction g telle que,
pour toute fonction h continue bornée sur ℝ𝟐 , on ait :
+∞ +∞
𝐸(ℎ(𝑈, 𝑉)) = ∫−∞ ∫−∞ ℎ(𝑢, 𝑣)𝑔(𝑢, 𝑣)𝑑𝑢𝑑𝑣.
Or
+∞ +∞
=∫ ∫ ℎ ∘ Φ(𝑥, 𝑦)𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞
−1 (𝑢,
𝑣))|𝐽Φ−1 (𝑢, 𝑣)| 𝑠𝑖 (𝑢, 𝑣) ∈ Φ(𝐷)
𝑔(𝑢, 𝑣) = {𝑓(Φ
0 𝑠𝑖𝑛𝑜𝑛
Exercice
1
Soit (X, Y) un couple de densité f avec 𝑓(𝑥, 𝑦) = 𝑥 2 𝑦 2 1[1,+∞[ (𝑥)1[1,+∞[ (𝑦).
1
𝑈=𝑋
Déterminer la densité du couple (U, V) où { 𝑋 .
𝑉=𝑌
56
III. Lois conditionnelles - Variables aléatoires indépendantes
Définitions 1.1 Si (X, Y) est un vecteur aléatoire discret, de loi conjointe P(X=x, Y=y), alors
on définit les fonctions de loi conditionnelles par
𝑃(𝑋=𝑥,𝑌=𝑦)
i) 𝑃(𝑋 = 𝑥|𝑌 = 𝑦) = si 𝑃(𝑌 = 𝑦) ≠ 0
𝑃(𝑌=𝑦)
pour tout 𝑥 ∈ 𝑋(Ω).
𝑃(𝑋=𝑥,𝑌=𝑦)
ii) 𝑃(𝑌 = 𝑦|𝑋 = 𝑥) = si 𝑃(𝑋 = 𝑥) ≠ 0
𝑃(𝑋=𝑥)
pour tout 𝑦 ∈ 𝑌(Ω).
Remarque. On a,
X 0 1 2 3 PY(y)
Y
0 1/8 2/8 1/8 0 4/8
1 0 1/8 2/8 1/8 4/8
𝒑𝑿 (𝒙) 1/8 3/8 3/8 1/8
Remarques
i) Dans le cas discret, il y a autant de distributions conditionnelles de X qu'il y a de valeurs
possibles pour Y (et vice-versa).
ii) En général on a
𝑃(𝑋 ∈ 𝐴, 𝑌 ∈ 𝐵)
𝑃(𝑋 ∈ 𝐴|𝑌 ∈ 𝐵) =
𝑃(𝑌 ∈ 𝐵)
et
𝑃(𝑋 ∈ 𝐴, 𝑌 ∈ 𝐵)
𝑃(𝑌 ∈ 𝐵|𝑋 ∈ 𝐴) = .
𝑃(𝑋 ∈ 𝐴)
57
iii) 𝑃(𝑌 ∈ 𝐵) = ∑𝑥∈𝑋(Ω) 𝑃(𝑌 ∈ 𝐵|𝑋 = 𝑥)𝑃(𝑋 = 𝑥).
Définition 1.2 Soit (X, Y)un vecteur aléatoire discret de loi conjointe P(X=x, Y=y).
L'espérance conditionnelle de l'une des variables lorsque l'autre est fixée est :
Remarque
𝑖) 𝐸(𝑋|𝑌 = 𝑦)est l'espérance de la v.a. X calculé par rapport à la loi conditionnelle de X
sachant Y = y.
𝑖𝑖) 𝐸(𝑋|𝑌 = 𝑦) existe pour tout y ∈Y(Ω) si E(X) existe et si P(Y = y) > 0 pour tout y de
Y(Ω).
iii) Notons que 𝐸(𝑋|𝑌 = 𝑦) est une fonction de y et que 𝐸(𝑌|𝑋 = 𝑥)est une fonction de x.
Exemple On lance une pièce 3 fois et on note le résultat. Soit X : le nombre total de PILE
obtenus. Y : le nombre de PILE obtenus au premier lancer.
X 0 1 2 3 PY(y)
Y
0 1/8 2/8 1/8 0 4/8
1 0 1/8 2/8 1/8 4/8
𝒑𝑿 (𝒙) 1/8 3/8 3/8 1/8
Exemple
Si elle existe, calculer E(X|𝑌) dans le cas suivant :
𝑿(𝛀) = 𝒀(𝛀) = 𝑰𝑵
{ 𝟏 𝒊+𝒋.
∀𝒊 ∈ 𝑰𝑵, ∀𝒋 ∈ 𝑰𝑵, 𝑷(𝑿 = 𝒊, 𝒀 = 𝒋) = 𝟐𝒆𝟐 𝒊!𝒋!
Définition. Pour tout réel y tel que 0 < fY(y) <+∞, on appelle densité conditionnelle de X
sachant que Y = y la fonction de la variable x paramétrée par y, notée 𝑓𝑋|𝑌=𝑦 :
𝑓(𝑥,𝑦)
𝑥 ↦ 𝑓𝑋|𝑌=𝑦 (𝑥) = .
𝑓𝑌 (𝑦)
Cette fonction 𝑓𝑋|𝑌=𝑦 est bien une fonction de densité.
58
Exemple
Soit un couple (X, Y) dont la densité conjointe est : f(x, y) = 𝑓(𝑥, 𝑦) = 6𝑥1𝐷 (𝑥, 𝑦)avec
𝐷 = {(𝑥, 𝑦) ∈ 𝐼𝑅 2 ; 𝑥 ≥ 0, 𝑦 ≥ 0, 𝑥 + 𝑦 ≤ 1}.
Calculer la densité conditionnelle de X sachant que Y = y, en précisant pour quelles valeurs de
y elle existe.
Définition 2.1
Pour tout réel y tel que 0 < fY(y) <+∞, on appelle espérance conditionnelle de X sachant
+∞
Y= y le réel (s'il existe) : 𝐸(𝑋|𝑌 = 𝑦) = ∫−∞ 𝑥𝑓𝑋|𝑌=𝑦 (𝑥)𝑑𝑥.
Propriétés 2.1
i) Si X=a une constante, alors E(X|𝑌 = 𝑦) = 𝑎.
ii)∀ 𝛼, 𝛽 ∈ 𝐼𝑅, 𝐸(𝛼𝑋1 + 𝛽𝑋2 |𝑌 = 𝑦) = 𝛼𝐸(𝑋1 |𝑌 = 𝑦) + 𝛽𝐸(𝑋2 |𝑌 = 𝑦). (linéarité)
iii) Si 𝑋 ≥ 0, alors 𝐸(𝑋|𝑌 = 𝑦) ≥ 0 et si 𝑋1 ≤ 𝑋2 alors 𝐸(𝑋1 |𝑌 = 𝑦) ≤ 𝐸(𝑋2 |𝑌 = 𝑦).
(croissance)
Définition 3.1 Les deux variables du vecteur discret (X, Y) sont indépendantes si
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑃(𝑋 = 𝑥) × 𝑃(𝑌 = 𝑦) pour tout 𝑥 ∈ 𝑋(Ω) et pour tout 𝑦 ∈ 𝑌(Ω).
Exemple. Une urne contient a boules noires et b boules blanches (a et b entiers non nuls). On
tire 2 fois une boule, et pour i = 1, 2, on note Xi la variable de Bernoulli qui vaut 1 si la boule
tirée au i-ème tirage est blanche, et 0 sinon.
X1 et X2 sont indépendantes si le tirage se fait avec remise.
X1 et X2 ne sont pas indépendantes si le tirage se fait sans remise.
Remarque. Pour vérifier l'indépendance de deux v.a. dont on connaît la loi conjointe, il n'est
pas indispensable de calculer leurs lois marginales. Il suffit de regarder si l'expression donnant
P(X = x, Y = y) peut s'écrire comme le produit d'une fonction de x par une fonction de y.
Exercice. On lance une pièce 3 fois et on note le résultat. Soit X : le nombre total de PILE
obtenus.Y : le nombre de PILE obtenus au premier lancer.
59
X 0 1 2 3 PY(y)
Y
0 1/8 2/8 1/8 0 4/8
1 0 1/8 2/8 1/8 4/8
𝒑𝑿 (𝒙) 1/8 3/8 3/8 1/8
Exercice Soit (X, Y) un couple discret dont la loi conjointe est donnée par :
𝑿(𝛀) = 𝒀(𝛀) = 𝑰𝑵
𝒊) { 𝟏 𝟏
∀𝒊 ∈ 𝑰𝑵, ∀𝒋 ∈ 𝑰𝑵, 𝑷(𝑿 = 𝒊, 𝒀 = 𝒋) = 𝟐
𝒆 𝒊! 𝒋!
𝑿(𝛀) = 𝒀(𝛀) = 𝑰𝑵
𝒊𝒊) { 𝟏 𝒊+𝒋
∀𝒊 ∈ 𝑰𝑵, ∀𝒋 ∈ 𝑰𝑵, 𝑷(𝑿 = 𝒊, 𝒀 = 𝒋) = 𝟐
𝟐𝒆 𝒊! 𝒋!
Etudier l'indépendance de X et Y.
Remarques.
● Si X et Y sont des variables aléatoires indépendantes alors on peut déterminer leur
distribution conjointe à l'aide des distributions marginales des v.a. de X et Y en faisant le
produit de celles-ci.
● Ce n'est pas le cas si X et Y ne sont pas indépendantes.
Définition 3.2 Soit (X, Y) est un couple continu de densité f, les variables aléatoires X et Y
sont indépendantes si et seulement si
On dit que la loi du couple est le produit tensoriel des lois marginales.
Remarques : Dans le cas d'un couple continu, si la densité f(x, y) peut s'écrire comme le
produit d'une fonction de densité de x par une fonction de densité de y, alors X et Y sont
indépendantes.
𝑥
Exercice. Soit 𝑓(𝑥, 𝑦) = 1[0,1] (𝑥)1]0,1[ (𝑦) la densité conjointe du couple de v.a. (X, Y).
√𝑦
Déterminer les lois marginales 𝑓𝑋 𝑒𝑡 𝑓𝑌 .
Attention
Si 𝑓(𝑥, 𝑦) = 6𝑥1𝐷 (𝑥, 𝑦)avec𝐷 = {(𝑥, 𝑦) ∈ ℝ2 ; 𝑥 ≥ 0, 𝑦 ≥ 0, 𝑥 + 𝑦 ≤ 1}, alors X et Y ne
sont pas indépendantes parce que 1D (x, y) ne peut pas s'écrire comme le produit d'une
indicatrice en x par une indicatrice en y. (D n'est pas un pavé).
60
Propriété 3.2
Soient deux variables X et Y indépendantes.
Soient deux couples réels (a, b) et (c, d) tels que a ≤ b et c ≤ d (avec éventuellement a ou
c = -∞, b ou d= +∞). On a :𝑃(𝑎 ≤ 𝑋 ≤ 𝑏, 𝑐 ≤ 𝑌 ≤ 𝑑) = 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) × 𝑃(𝑐 ≤ 𝑌 ≤ 𝑑).
Propriété 3.3 Soit (X, Y) un couple aléatoire. Les conditions suivantes sont équivalentes :
i) Les variables X et Y sont indépendantes.
ii) La loi conditionnelle de X sachant Y = y est la loi de X, pour tout y tel que cette loi
conditionnelle est définie.
iii) La loi conditionnelle de Y sachant X = x est la loi de Y, pour tout x tel que cette loi
conditionnelle est définie.
Théorème 4.1 Soient (X, Y) un couple de v.a. discrètes indépendantes à valeurs dans ℕ.
On pose S = X + Y, alors S prend des valeurs entières, et pour tout entier k :
𝒌 𝒌
Corollaire 4.1
X Y B n1 n2 , p .
Remarques. On dit que, sous l'hypothèse d'indépendance, les lois binomiales, de Poisson et
de Chi-deux respectivement sont stables pour la somme.
Par récurrence, cette propriété de stabilité se généralise à des sommes finies.
61
Théorème Soit (X, Y) un couple de v.a. indépendantes de densités respectives f et g.
Alors la somme S = X + Y a une densité h définie par :
+∞ +∞
𝒉(𝒔) = ∫ 𝒇(𝒙)𝒈(𝒔 − 𝒙)𝒅𝒙 = ∫ 𝒇(𝒔 − 𝒚)𝒈(𝒚)𝒅𝒚.
−∞ −∞
La fonction h s'appelle produit de convolution des fonctions f et g.
Corollaire
i) Soient X et Y deux variables aléatoires indépendantes et de lois normales. Alors X+Y suit
une loi normale. Plus précisément, si X suit la loi N (, ) et Y suit N (, ), alors X+Y
suit la loi N (; √𝜎12 + 𝜎22 ).
ii) Soient X et Y deux variables aléatoires indépendantes et de lois exponentielles. Alors X+Y
suit une loi exponentielle. Plus précisément, si X ~ 𝐸(𝜆)et Y ~ 𝐸(𝜇), alors
Remarques.
Sous l'hypothèse d'indépendance, les lois Gamma (respectivement normales) sont stables pour
la somme.
Par récurrence, ces propriétés se généralisent à des sommes finies.
62
Définitions 5.1
i) On appelle covariance de X et Y le réel défini par :
cov(X ,Y ) E( X E( X ))(Y E(Y )) ( x E( X ))(y E(Y )) f X ,Y ( x, y)dxdy
cov( X , Y )
( X , Y ) à condition que 𝜎𝑋 > 0 et 𝜎𝑌 > 0.
X Y
Remarques.
● Contrairement à la covariance, le coefficient de corrélation est indépendant des
unités choisies pour X et Y.
● Si cov(X,Y) =0, on dit que X et Y sont non corrélées.
● Deux variables aléatoires X et Y sont orthogonales si E ( XY ) 0 .
● Si X et Y sont indépendantes, on montre que E(XY ) = E(X)E(Y ).
Propriétés 5.2
Soient X et Y deux v.a. admettant une variance, et soient 𝜆 et 𝜇 deux réels.
i) cov(X, X) =Var(X).
ii) cov(X, Y) = cov(Y, X) la covariance est symétrique.
iii) cov(𝜆X1+𝜇X2, Y) =𝜆cov(X,Y) + 𝜇cov(X, Y) la covariance est bilinéaire.
iv) |𝜌(𝑋, 𝑌)| ≤ 1.
v) Si |𝜌(𝑋, 𝑌)| = 1, alors Y est une fonction affine de X (et inversement).
Remarques
● Un coefficient de corrélation linéaire est une grandeur sans dimension et sans unité (dite aussi
grandeur scalaire). Il est indépendant des unités choisies pour X et Y (ce qui est heureux
puisqu’il est censé avoir un «sens physique»).
● Si 𝜌(X; Y) > 0, on dit que X et Y sont corrélées positivement, si 𝜌(X; Y) < 0 qu’elles sont
corrélées négativement.
● Une corrélation positive signifie que Y a «tendance à augmenter» quand X augmente.
Une corrélation négative signifie que Ya tendance à diminuer quand X augmente.
● Un coefficient de corrélation linéaire «proche de 1» en valeur absolue signifie que Y peut
être «bien approchée» par une fonction affine de X, croissante si le coefficient est positif,
décroissante sinon. C’est une question centrale en statistiques (moins en probabilités).
● Deux variables sont non corrélées (linéairement) si et seulement si leur covariance est nulle.
Cela ne signifie pas nécessairement qu’elles sont indépendantes.
Théorème 5.2
Si X et Y ont une variance, il en est de même pour X + Y, et on a :
63
Généralisation à n variables : Soit a1 ,…, an n constantes, si n variables aléatoires X1,…, Xn
ont une variance, alors il en est de même pour leur somme, et on a :
𝑛 𝑛
Cas particulier important : Si les Xi sont non corrélées deux à deux (ce qui est vrai en
particulier si les Xi sont indépendantes, la variance de la somme est égale à la somme des
variances :
𝑛 𝑛
Exercices Proposés
Exercice 1 On considère le lancer d’un dé pipé dont la loi est donnée par le tableau suivant
(avec 𝑘 ∈ ℝ) :
k 1 2 3 4 5 6
P(X=k) k 2k 3k 3k 2k k
Exercice 3 Une étude a montré qu’en moyenne 100 consultations d’un site hôtelier sur Internet
entraînent 2 réservations fermes. Soit X la variable aléatoire égale au nombre mensuel de
réservations fermes. La première année le nombre moyen mensuel de consultations est estimée
à 250.
1) Justifier que X suit une loi binomiale, en préciser les paramètres.
2) Montrer qu’une approximation de la loi binomiale par une loi de Poisson convient.
3) En utilisant l’approximation, déterminer la probabilité pour un mois donné que le nombre de
réservations fermes soit :
(3.a) de 8 réservations ; (3.b) de 12 réservations ; (3.c) compris entre 8 (inclus) et 12 (inclus)
réservations.
Exercice 4 Dans une entreprise qui produit des bobines de fil pour l’industrie textile, une
étude a montré que la longueur d’une bobine est une variable aléatoire X qui suit la loi
normale N (50 ; 0, 2)
1) Calculer les probabilités suivantes.
1.1 La longueur de la bobine est inférieure 50,19 m.
1.2 La longueur de la bobine est supérieure 50,16 m.
1.3 La longueur de la bobine est comprise entre 50,16 m et 50,19 m.
2) Déterminer le nombre réel positif a tel que 𝑃(50 − 𝑎 ≤ 𝑋 ≤ 50 + 𝑎) = 0, 9 puis
interpréter le résultat trouvé.
64
Exercice 5 Soit X une variable aléatoire continue dont la densité est donnée sur ℝ par :
𝑎𝑥(𝑥 − 2) 𝑠𝑖 𝑥 ∈ [0 ; 2]
𝑓(𝑥) = {
0 𝑠𝑖 𝑥 ∉ [0 ; 2]
où 𝑎 est un réel négatif.
1) Donner la valeur de 𝑎.
2) Calculer la fonction de répartition de X.
3) Calculer l’espérance et la variance de X.
1 1 4
4) Calculer 𝑃 ( 𝑋 ≤ 2 ) et 𝑃 ( 3 ≤ 𝑋 ≤ 3).
Exercice 6 Une compagnie de transport désire optimiser les contrôles afin de limiter l’impact
des fraudes. Cette compagnie effectue une étude basée sur 2 trajets par jour pendant les 20 jours
ouvrables d’un mois, soit au total 40 trajets. On admet que les contrôles sont indépendants les
uns des autres et que la probabilité pour tout voyageur d’être contrôlé est égale à 𝑝. Un trajet
coûte 10 𝐸𝑐𝑜 ; en cas de fraude, l’amende est de 100 𝐸𝑐𝑜. Théo fraude systématiquement lors
des 40 trajets étudiés.
On note 𝑋 la variable aléatoire qui compte le nombre de trajets où Théo a été contrôlé.
1) On suppose que 𝑝 = 0,05.
1.1) Donner la loi de la variable aléatoire 𝑋.
1.2) Calculer à 10−4 près la probabilité que Théo soit contrôlé au plus 2 fois.
2) Soit 𝑍 la variable aléatoire donnant le gain algébrique réalisé par Théo.
Justifier que 𝑍 = 400 − 110𝑋 puis calculer 𝐸(𝑍).
3) On ne connaît plus la valeur de 𝑝. Pour quelles valeurs de 𝑝 la fraude systématique est-elle
favorable à Théo ? Justifier votre réponse.
Exercice 7 Dans cet exercice chaque probabilité demandée sera arrondie à 𝟏𝟎−𝟑 .
Une petite entreprise emploie 20 personnes. Une étude statistique permet d’admettre qu’un jour
donné la probabilité qu’un employé donné soit absent est 0,05. On admet que les absences des
employés survenues un jour donné sont indépendantes les unes des autres. On note X la variable
aléatoire qui à chaque jour tiré au hasard associe le nombre d’employés absents.
1) Expliquer pourquoi X suit une loi binomiale. Donner les paramètres de cette loi.
2) Calculer la probabilité des événements suivants : 𝐸1 : "Un jour donné, il y a exactement trois
absents" ; 𝐸2 : "Un jour donné, le nombre d’absents est compris entre trois et six (bornes
comprises)".
3) Calculer l’espérance mathématique notée E(X) de la variable aléatoire X.
Que représente E(X) ?
4) On approche la loi binomiale de la question 1) par une loi de Poisson de paramètre 𝜆.
Déterminer la valeur de 𝜆. En utilisant la loi de Poisson, déterminer les probabilités respectives
des deux événements 𝐸1 , 𝐸2 de la question 2. Conclure.
65