0% ont trouvé ce document utile (0 vote)
48 vues29 pages

Probas 1

Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
48 vues29 pages

Probas 1

Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

MATHÉMATIQUES 2024 – 2025 1

10 Fondements des probabilités


« Un coup de dés jamais n’abolira le hasard »
Stéphane Mallarmé (1914)

Plan de cours

I Quelques rappels de dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1


II Des tribus aux probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
III Conditionnement et indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
IV Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
V Familles de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

I | Quelques rappels de dénombrement


A – Cardinal d’un ensemble fini
On rappelle que le cardinal d’un ensemble fini E est noté card(E ) ou |E |. On notera dans tout ce chapitre A ⊔ B
l’union de deux ensembles A et B disjoints (notation courante mais non officielle).
Tous les ensembles considérés dans cette section sont supposés finis. Soient n , p ∈ N∗ .
Proposition 10.1 : cardinal d’une réunion / d’une différence
Soient deux ensembles finis A et B .
(i) card(A ∪ B ) = card(A) + card(B ) − card(A ∩ B ). En particulier, card(A ⊔ B ) = card(A) + card(B ).
(ii) card(A \ B ) = card(A) − card(A ∩ B ) ;

n
‚ Œ
n
G X
Plus généralement, si A 1 , . . ., A n sont disjoints, alors card Ak = card(A k ).
k =1 k =1

Proposition 10.2 : cardinal d’un produit


‚ p Œ n
Y Y
Soient p ensembles finis A 1 , . . . , A p . Alors, card Ak = card(A k ).
k =1 k =1

En particulier, card E p = card(E )p .




Proposition 10.3
Soient deux ensembles finis E et F .
(i) S’il existe une injection de E dans F alors card(E ) ⩽ card(F ).
(ii) S’il existe une surjection de E dans F alors card(E ) ⩾ card(F ).
(iii) S’il existe une bijection de E dans F alors card(E ) = card(F ).

Si card(E ) = card(F ), f : E → F est injective si et seulement si elle est surjective.

B – Listes, arrangements, combinaisons et permutations


La résolution d’un problème de dénombrement conduit bien souvent à représenter une situation donnée au
moyen de graphes, de mots ou de tout autre objet permettant d’énumérer une certaine liste de possibilités.
Une fois traduit en langage mathématique, la résolution d’un tel problème se ramènera immanquablement
au calcul du cardinal d’un ensemble bien identifié. Cette étape de modélisation est essentielle au calcul de
certaines probabilités.
2 Chap. 10 Fondements des probabilités

Exemples
• Une urne contient des boules noires et des boules blanches. Le tirage successif d’une boule blanche,
puis d’une boule noire et enfin d’une boule blanche peut être représenté par le mot B N B . L’ensemble des
tirages possibles de trois boules est alors : {B B B , N B B , B N B , N N B , N B N , B B N , B N N , N N N }.
On constate qu’il y a 8 = 2 × 2 × 2 possibilités.
• On pioche cinq cartes simultanément dans un jeu de 32 cartes. Une « main » possible est :
{As♥, R♣, 8♣, D♦, 9♥}. Notons que contrairement au cas précédent, l’ordre n’a pas d’importance.

Bien entendu, il sera rarement question de proposer une énumération exhaustive des différentes possibilités
pour déterminer le cardinal d’un ensemble. Il s’agira plutôt de reformuler un problème donné pour se ramener
à des situations familières, s’appuyant (par exemple) sur l’un des trois modèles suivants :
 tirages successifs avec remise (modélisés par des listes)
 tirages successifs sans remise (modélisés par des arrangements)
 tirages simultanés (modélisés par des combinaisons)
Revenons sur ces éléments, en considérant un ensemble fini E à n éléments ainsi qu’un entier naturel p .

1 – Listes et uplets

Définition 10.4
On appelle p -uplet ou p -liste de E toute famille de p éléments de E , c’est-à-dire un élément de E p .

Il y a exactement n p p -uplets de E .

Exemple
On tire trois cartes avec remise dans un jeu comportant 32 cartes. Il y a alors 323 tirages possibles.

Proposition 10.5
Le nombre d’applications d’un ensemble E de cardinal n vers un ensemble F de cardinal p vaut n p .

2 – Arrangements

Définition 10.6 : Arrangement


On appelle arrangement de p éléments de E un p -uplet constitué d’éléments de E deux à deux distincts.

Exemple
Si E = {1, 2, 3}, les arrangements de deux éléments sont : (1, 2), (1, 3), (2, 1), (2, 3), (3, 1) et (3, 2).

Théorème 10.7 : Nombre d’arrangements


On suppose que 1 ⩽ p ⩽ n .
n!
Le nombre d’arrangements de p éléments de E vaut = n × (n − 1) × · · · × (n − p + 1).
(n − p )!

C’est le nombre de façons de choisir p éléments ordonnés parmi n .

Démonstration
On peut procéder par récurrence ou, plus simplement, de la façon suivante.
Choisir un arrangement (x1 , . . . , xp ) de E revient à choisir x1 parmi n éléments, puis x2 parmi n − 1 éléments,
. . ., jusqu’à xp parmi les n − p + 1 éléments restants. Au final, n × (n − 1) × · · · × (n − p + 1) possibilités. ■

© Mickaël PROST Année 2024/2025


Partie I – Quelques rappels de dénombrement 3

Exercice 1
Une association comportant 27 membres doit élire un président, un secrétaire et un trésorier.
Quel est le nombre de possibilités ?

À chaque arrangement (x1 , . . . , xp ) de E , on peut associer de manière unique l’application f : ⟦1, p ⟧ → E définie
par f (i ) = xi . L’application est injective, ce qui conduit au résultat suivant.

Proposition 10.8
n!
Si E est de cardinal p et F de cardinal n , le nombre d’applications injectives de E dans F est .
(n − p )!

3 – Permutations

Définition 10.9 : Permutation


On appelle permutation de E un arrangement de E à n = card(E ) éléments.

Exemple
Si E = {1, 2, 3}, les permutations de E sont (1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2) et (3, 2, 1).

Proposition 10.10 : Nombre de permutations


Le nombre de permutations de l’ensemble E est n!.

À chaque permutation (x1 , . . . , xn ) de E , on peut associer de manière unique l’application f : ⟦1, n⟧ → E définie
par f (i ) = xi . L’application étant injective, elle est bijective ; d’où le résultat suivant.

Proposition 10.11
Il y a n! bijections de E vers E .

Exercice 2
• Combien existe-t-il d’anagrammes du mot SABORD ? du mot BACHIBOUZOUK ?
• Combien peut-on fabriquer de colliers distincts avec 5 perles de couleurs différentes ?

4 – Combinaisons

Définition 10.12 : Combinaison


On appelle combinaison de p éléments de E un sous-ensemble de E contenant p éléments.

Attention à la différence de nature entre un arrangement (une liste d’éléments de E ) et une combinaison (une
partie de E ). L’ordre n’important pas dans la constitution d’une combinaison, les combinaisons seront bien
moins nombreuses que les arrangements.

Exemple
Si E = {1, 2, 3}, les combinaisons de deux éléments sont : {1, 2}, {1, 3} et {2, 3}.

Théorème 10.13 : Nombre de combinaisons


On suppose que 1 ⩽ p ⩽ n .  
n n!
Le nombre de combinaisons de p éléments de E vaut = .
p p !(n − p )!

Année 2024/2025 Lycée Louis-le-Grand – MP


4 Chap. 10 Fondements des probabilités

Démonstration
Considérons une combinaison {x1 , . . . , xp } de p éléments de E . On peut alors lui associer p ! arrangements
distincts. Réciproquement, à un arrangement donné, on ne peut lui associer qu’une seule combinaison.  Si

p n! p p n! n
on note Cn le nombre de combinaisons de E à p éléments, = p !Cn et donc : Cn = = .
(n − p )! p !(n − p )! p

Exercice 3
On dispose d’un jeu classique de 32 cartes et on en distribue 8 à 4 joueurs.
• Combien y a-t-il de jeux possibles par joueur ?
• Combien y a-t-il de jeux contenant 6 cartes rouges ?

Proposition 10.14 : Propriétés des coefficients binomiaux


Soient n , p ∈ N, supposés non nuls dans les formules (iii) et (iv).
             
n n n n n n n −1
(i) = = 1, =n (ii) = (iii) p =n
0 n 1 p n −p p p −1
      n  
n −1 n −1 n X n
(iv) + = (v) = 2n
p −1 p p k =0
k

Démonstration (preuves combinatoires)


 
n
(i) Il y a n choix possibles quand on tire 1 élément parmi n donc = n.
1
   
n n
  à choisir les n − p autres donc p = n − p .
(ii) Choisir p éléments parmi n revient
n
(iii) Formule du capitaine – Il y a p façon de choisir p éléments parmi n puis un élément parmi ceux-là.
p
Cela revient exactement à choisir un élement parmi les n puis à « compléter » en choisissant p − 1
éléments parmi les n − 1 restants. Ce qui nous donne bien la formule annoncée !
(iv) Formule de Pascal – Soient E un ensemble à n éléments et x ∈ E . Les parties de E à p éléments sont
de deux types : celles qui contiennent x et sont constituées de p − 1 autres éléments choisis parmi les
n − 1 restants ; celles qui ne contiennent pas x et qui sont constituées de p éléments choisis parmi les
n−1
 n−1 n

n − 1 restants. Elles forment deux ensembles disjoints donc p −1 + p = p .
(v) Toute partie de E étant une combinaison de E , les ensembles de combinaisons de p éléments de E
n
G
constituent une partition de P (E ), ce qu’on peut écrire sous la forme P (E ) = C p (E ) où C p (E )
p =1
désigne l’ensemble des combinaisons de p éléments. D’où l’égalité demandée. ■
 
n
Pour p > n, = 0 : on ne peut construire d’ensemble à p éléments avec seulement n éléments.
p

Exercice 4 – Formule de Vandermonde


Soient m , n , p ∈ N. Montrer à l’aide d’une preuve combinatoire et d’une preuve non combinatoire que :
p  
n +m
  
X n m
=
k =0
k p −k p

Proposition 10.15 : Formule du binôme


n  
n
X n k n−k
Pour tous a , b ∈ C et n ∈ N, (a + b ) = a b .
k =0
k

© Mickaël PROST Année 2024/2025


Partie II – Des tribus aux probabilités 5

Corollaire 10.16 : Cardinal de l’ensemble des parties


Si E est un ensemble fini de cardinal n , card(P (E )) = 2n .

Exercice 5
Soient n, p ∈ N∗ . Déterminer le nombre :
(i) de p -listes strictement croissantes d’éléments de ⟦1, n ⟧.
(ii) de p -listes croissantes d’éléments de ⟦1, n ⟧.
(iii) de listes (n1 , . . . , np ) d’entiers positifs ou nuls tels que n1 + · · · + np = n .
(iv) de listes (n1 , . . . , np ) d’entiers strictement positifs tels que n1 + · · · + np = n .

C – Indicatrice
On rappelle que si A est une partie de E , on définit la fonction indicatrice (ou caractéristique) de A sur E par :

1 si x ∈ A
∀x ∈ E , 1A (x ) =
/A
0 si x ∈

Les opérations sur les ensembles peuvent se traduire par des opérations sur les indicatrices.

Proposition 10.17
Soient A et B deux parties d’un ensemble E , A étant supposée finie dans la dernière assertion. Alors,

(i) A = B ⇐⇒ 1A = 1B (ii) A ⊂ B ⇐⇒ 1A ⩽ 1B (iii) 1A = 1 − 1A


X
(iv) 1A∩B = 1A · 1B (v) 1A∪B = 1A + 1B − 1A · 1B (vi) card(A) = 1A (x )
x ∈E

Exemple
(A i )1⩽i ⩽n est une partition de E si et seulement si 1A 1 + · · · + 1A n = 1.

Exercice 6 – Formule du crible de Poincaré


Soient A 1 , . . . , A n des ensembles finis. Prouver à l’aide d’indicatrices que :
 
n 
Xn X
(−1)k +1 
[ 
card Ai = card A i 1 ∩ · · · ∩ A i k 
i =1 k =1 1⩽i 1 <···<i k ⩽n

II | Des tribus aux probabilités


A – Expérience aléatoire, univers
On appelle expérience aléatoire une expérience dont toutes les issues possibles sont connues a priori mais
dont le résultat peut varier lorsqu’on la répète (lancer d’un dé, tirage d’une boule dans une urne, ...). On appelle
alors univers et on note en général Ω l’ensemble des résultats possibles – ou issues – d’une telle expérience.
Ces résultats peuvent prendre des formes variées :
 lancer d’un dé : on peut s’intéresser au chiffre obtenu (Ω = ⟦1, 6⟧), à sa parité (Ω = {P, I }), etc.
 lancer de deux dés discernables : Ω = ⟦1, 6⟧2 ;
 tirage de trois cartes dans un jeu de 32 : Ω est alors l’ensemble des combinaisons de 3 cartes parmi 32.
Une expérience aléatoire peut également conduire à un univers infini, dénombrable ou non dénombrable :
 lancer d’une pièce jusqu’à obtenir pile : Ω = {P, F P, F F P, F F F P, . . .}∪{ω∞ } (dénombrable) où ω∞ désigne
le mot infini dont toutes les lettres valent F ;

Année 2024/2025 Lycée Louis-le-Grand – MP


6 Chap. 10 Fondements des probabilités

 lancer infini d’une pièce : Ω = {P, F }N (non dénombrable ( !)) ;


 durée de vie d’une ampoule : Ω = R∗+ (non dénombrable) ;
 jeu de fléchettes : Ω = {(x , y ) ∈ R2 | x 2 + y 2 ⩽ R 2 } (non dénombrable).
Il s’avère parfois difficile d’expliciter l’univers associé à une expérience aléatoire (mutation de gènes d’une
population de drosophiles, files d’attente, etc.) mais cela ne constituera pas pour nous un réel obstacle.
S’il peut être instructif de préciser l’univers manipulé dans certains exercices de probabilités élémentaires
(essentiellement ceux qui se rapportent à des questions combinatoires), l’univers sera invisibilisé dans la
plupart des problèmes rencontrés, au profit de son image par une variable aléatoire, seule trace digne d’intérêt.

B – Tribu et événements
Le programme de première année se limite aux expériences aléatoires associées à des univers finis. Dans
ce cadre, on peut écrire Ω = {ω1 , . . . , ωn } et appeler événement toute partie de Ω ; P (Ω) représentant alors
l’ensemble des événements associés à une expérience aléatoire donnée. Tout événement s’écrit comme réunion
finie d’événements élémentaires, c’est-à-dire d’événements de la forme {ω} avec ω ∈ Ω.

Exemple
On lance un dé et on obtient 5. Ω = ⟦1, 6⟧.
• L’événement « face impaire » décrit par A = {1, 3, 5} est donc réalisé.
• L’événement « score supérieur ou égal à 3 » décrit par A = {3, 4, 5, 6} est réalisé.

Rappelons quelques éléments de vocabulaire probabiliste, simples traductions de termes ensemblistes.

Langage probabiliste Langage ensembliste

Résultat possible ω∈Ω


Événement A⊂Ω
Événement certain Ω
Événement impossible ∅
Événement contraire A
Événement « A ou B » A∪B
Événement « A et B » A∩B
Événements incompatibles A∩B =∅
n
G
Système complet d’événements Ω= Ak
k =1

Vocabulaire associé aux événements

Munir Ω d’une probabilité revient à définir sur P (Ω) une application P à valeurs dans [0, 1] vérifiant P(Ω) = 1 et
une propriété d’additivité : P(A ⊔ B ) = P(A) + P(B ) pour tous événements A et B incompatibles. On remarque
en première année que définir une telle application revient à se donner une famille de réels positifs (pk )1⩽k ⩽n ,
de somme égale à 1. P est en effet entièrement définie par la donnée de P({ωk }) = pk , la probabilité de toute
partie de P (Ω) s’obtenant alors en écrivant cette partie comme réunion disjointe d’événements élémentaires.
Lorsque l’univers Ω est dénombrable, même combat ! La description de l’univers sous la forme Ω = {ωn | n ∈ N}
nous permet d’écrire toute partie de Ω comme réunion (cette fois-ci dénombrable) d’événements élémentaires.
Il ne nous reste plus qu’à introduire une probabilité comme application P : P (Ω) → [0, 1] vérifiant :
+∞
G
 +∞
X
P(Ω) = 1 et P An = P(A n )
n =0 n=0

© Mickaël PROST Année 2024/2025


Partie II – Des tribus aux probabilités 7

La deuxième propriété, dite d’additivité dénombrable ou σ-additivité, s’avère indispensable si l’on souhaite
sortir du cadre fini et effectuer des passages à la limite (probabilité d’« obtenir une infinité de pile » par exemple).
Se doter d’une telle probabilité revient encore à se donner une famille de réels positifs (pk )k ∈N , de somme égale
à 1. La probabilité de toute partie de Ω, c’est-à-dire de tout événement, se retrouve alors au moyen de :
X
∀A ∈ P (Ω), P(A) = P({ωk })
ωk ∈A

En revanche, lorsque l’univers Ω n’est pas dénombrable, un fait nouveau et déroutant se produit, tout droit
issu de la théorie de la mesure : toutes les parties de Ω ne peuvent être considérées comme des événements car
il est impossible de définir une probabilité véritablement intéressante sur P (Ω).

Exemple – le jeu de fléchettes et l’axiome du choix


On lance une fléchette sur une cible linéaire modélisée par le segment Ω = [0, 1]. On cherche à définir une
probabilité sur Ω conforme, de façon intuitive, au point de vue fréquentiste :
p
• La probabilité d’atteindre un point particulier, par exemple celui d’abscisse 1/ 2, devrait être nulle.
• La probabilité d’atteindre un point d’abscisse située entre 0 et 1/2 devrait valoir 1/2. Plus généralement,
la probabilité d’atteindre un point du segment [a , b ], pour 0 ⩽ a ⩽ b ⩽ 1, devrait valoir b − a .
L’axiome du choix permet malheureusement d’infirmer l’existence d’une application P : P ([0, 1]) → [0, 1]
supposée σ-additive et vérifiant, pour tous a ⩽ b , P([a , b ]) = b −a . (résultat non trivial 1 et hors programme)

Ne perdons cependant pas espoir de définir une probabilité sur un univers non dénombrable. Si P (Ω) est
trop riche, et c’est le cas lorsque Ω n’est pas dénombrable, il suffit de se débarrasser de ses éléments les plus
exotiques. L’ablation sera indolore, de telles parties de Ω ne peuvent se décrire au moyen d’une liste de parties
élémentaires et d’opérations ensemblistes : inaccessibles, elles sont en quelque sorte invisibles à nos yeux.
Fixons-nous un cahier des charges pour définir une partie A de P (Ω) qui regrouperait les parties de Ω qui
seraient par la suite qualifiées d’événements. Quelques considérations s’imposent :
• Si A est un événement, on s’attend à ce que A soit encore un événement.
+∞
[
• De même, si nous disposons d’une suite (A n ) d’événements, on souhaiterait que A n soit encore un évé-
n=0
nement, donc un élément de A . Cette propriété devrait s’étendre au cas des intersections dénombrables.

Ce qui nous conduit tout droit à la définition suivante :

Définition 10.18 : Tribu ou σ-algèbre


Soit Ω un ensemble non vide. On appelle tribu sur Ω, ou σ-algèbre, toute partie A de P (Ω) qui vérifie :
(i) Ω ∈ A ;
(ii) Si A ∈ A alors A ∈ A (stabilité par passage au complémentaire) ;
+∞
[
(iii) Si (A n )n∈N est une suite d’éléments de A alors A n ∈ A (stabilité par réunion dénombrable).
n=0
Le couple (Ω, A ) est alors appelé espace probabilisable ; tout élément de A est appelé événement de Ω.

L’association des propriétés (ii) et (iii) montre qu’une tribu est stable par intersection dénombrable : si (A n )n ∈N
+∞
\
est une suite d’éléments de A , alors An ∈ A .
n=0

Exemples
Si Ω est un ensemble non vide, voici deux exemples de tribus naturelles :

A = {∅, Ω} (tribu grossière) ; A = P (Ω) (tribu exhaustive)

1. Il est néanmoins possible de définir une telle probabilité sur un ensemble plus restreint que P ([0, 1]), appelé « tribu borélienne ».
Cette partie de P ([0, 1]) n’est rien d’autre que la tribu (voir définition ci-après) engendrée par les intervalles ouverts inclus dans [0, 1].

Année 2024/2025 Lycée Louis-le-Grand – MP


8 Chap. 10 Fondements des probabilités

En pratique,
• si Ω est au plus dénombrable, on choisira A = P (Ω). La notion de tribu n’est alors plus très pertinente ;
• si Ω est non dénombrable, l’énoncé fournira le cadre adapté en admettant bien souvent l’existence d’une
tribu convenable autre que P (Ω). Si jamais l’énoncé s’en soucie. . .

Définition 10.19 : Système complet d’événements


Soit (Ω, A ) un espace probabilisable. On appelle système complet d’événements toute famille finie ou
dénombrable (A i )i ∈I d’événements vérifiant :
[
(i) pour tous i , j ∈ I distincts, A i ∩ A j = ∅ (ii) Ai = Ω
i ∈I

A0 Exemples
Soit (Ω, A ) un espace probabilisable.
A1 
• Si A est un événement, A, A est un s.c.e. ;
...
A2 • Si l’univers Ω = {ω1 , . . . , ωn } est fini, ({ω1 }, . . . , {ωn })
est un système complet d’événements.
A3
• Plus généralement, pour tout univers au plus dé-
nombrable Ω = {ωi | i ∈ N}, la famille ({ωi })i ∈N est
Représentation d’un système complet d’événements un système complet d’événements.

C – Probabilité
1 – Définition et premières propriétés

Définition 10.20 : Probabilité


Soit (Ω, A ) un espace probabilisable, où Ω désigne un univers quelconque (fini, dénombrable ou non
dénombrable). On appelle probabilité sur (Ω, A ) toute application P : A → [0, 1] vérifiant :
(i) P(Ω) = 1
(ii) Pour toute suite (A n )n∈N d’événements deux à deux incompatibles,
+∞
[
 +∞
X
P An = P(A n ) (propriété de σ-additivité)
n=0 n=0

Le triplet (Ω, A , P) est alors appelé espace probabilisé. Il est dit discret lorsque Ω est au plus dénombrable.

• La somme qui apparaît dans la propriété (ii) est celle d’une série convergente. C’est ce que suppose implici-
tement l’axiome de σ-additivité.
• Si on considère une suite (A n )n ∈N d’événements deux à deux incompatibles telle que A n = ∅ pour n > p , la
propriété (ii) se traduit par : 
P A 1 ∪ · · · ∪ A p = P(A 1 ) + · · · + P(A p )
En particulier, pour tout couple (A, B ) d’événements incompatibles, P(A ∪ B ) = P(A) + P(B ).
On retrouve alors les propriétés établies dans le cadre fini.

Proposition 10.21
Soient (Ω, A , P) un espace probabilisé et A, B ∈ A .
• P(∅) = 0 et P(A) = 1 − P(A).
• Si A ⊂ B alors P(A) ⩽ P(B ). (croissance de la probabilité)
• P(A ∪ B ) = P(A) + P(B ) − P(A ∩ B ).

© Mickaël PROST Année 2024/2025


Partie II – Des tribus aux probabilités 9

Démonstration
Démontrons seulement la dernière propriété. A∩B
A ∪ B = (A \ B ) ⊔ (A ∩ B ) ⊔ (B \ A) donc :
P(A ∪ B ) = P(A \ B ) + P(A ∩ B ) + P(B \ A)
A B
= [P(A) − P(A ∩ B )] + P(A ∩ B ) + [P(B ) − P(A ∩ B )]
= P(A) + P(B ) − P(A ∩ B )

Proposition 10.22
Soient (Ω, A , P) un espace
X probabilisé, I un ensemble au plus dénombrable, et (A i )i ∈I un système complet
d’événements. Alors, P(A i ) = 1.
i ∈I

Définition 10.23
Soient (Ω, A , P) un espace probabilisé et A un événement.
(i) Si P(A) = 0, l’événement A est dit négligeable ou quasi-impossible.
(ii) Si P(A) = 1, l’événement A est dit presque sûr ou quasi-certain.

2 – Distribution de probabilités discrète

Définition 10.24
Soit Ω un ensemble. On appelle distribution de probabilités discrète sur Ω toute famille de réels positifs
indexée par Ω et de somme égale à 1.

Cette famille étant sommable, son support est nécessairement au plus dénombrable (cf. chapitre Procédés
sommatoires discrets). Dans la suite de ce paragraphe, on considérera donc uniquement des espace probabi-
lisés (Ω, A , P) discrets. Dans ce cadre spécifique, et comme mentionné précédemment, une probabilité est
entièrement déterminée par les valeurs prises sur chaque événement élémentaire. C’est le principe mis en
œuvre dans l’exercice suivant et l’objet du théorème qui suit.

Exercice 7
On dispose d’un dé pipé dont on connaît la table de probabilités.

Face obtenue 1 2 3 4 5 6
1 1 1 1 1 1
Probabilité 12 8 3 12 4 8

Montrer que cette table définit une unique probabilité sur Ω = ⟦1, 6⟧.
Quelle la probabilité qu’on obtienne un chiffre supérieur à 4 lors d’un tirage ? un chiffre pair ? impair ?

Théorème 10.25
Soit Ω un ensemble au plus dénombrable.
• Soit P une probabilité définie sur (Ω, P (Ω)). On pose, pour tout ω ∈ Ω, pω = P({ω}).
Alors, (pω )ω∈Ω est une distribution de probabilités.
• Si (pω )ω∈Ω est une distribution de probabilités, il existe une unique probabilité P définie sur (Ω, P (Ω))
telle que pour tout ω ∈ Ω, pω = P({ω}).

On établit ici une bijection entre l’ensemble des probabilités sur (Ω, P (Ω)) et l’ensemble des distributions de
probabilités discrètes.

Année 2024/2025 Lycée Louis-le-Grand – MP


10 Chap. 10 Fondements des probabilités

Démonstration
 
G X
• Pour tout ω ∈ Ω, pω ∈ [0, 1]. Par σ-additivité, (pω ) est sommable et P(Ω) = P {ω} = pω = 1.
ω∈Ω ω∈Ω
• Réciproquement, donnons-nous une distribution de probabilités (pω )ω∈Ω . Soit P une application σ-
additive définie sur P (Ω) vérifiant pω = P({ω}) pour tout ω ∈ Ω. Nécessairement,
 
G X
∀A ∈ P (Ω), P(A) = P {ω} = pω
ω∈A ω∈A

L’unicité étant assurée, il reste à vérifier que l’on a bien défini une probabilité. On vérifie sans peine
que pour tout A ∈ P (Ω), P(A) ∈ [0, 1] puis que P(Ω) = 1. Soit maintenant une suite (A n )n∈N d’événements
deux à deux incompatibles, de réunion notée B . La famille (pω )ω∈B étant sommable, une sommation
par paquets donne :
+∞ 
G X +∞
X X +∞
X
P(B ) = P An = pω = pω = P(A n )
n =0 ω∈B n=0 ω∈A n n=0

Choisir les réels pω revient à choisir un modèle probabiliste (associé par exemple au lancer d’un dé pipé).

Exemple
Considérons N muni de sa tribu naturelle P (N). On définit une probabilité sur N en posant pour tout n ∈ N,
 ‹n+1
1
P({n }) = = pn . La série à termes positifs pn est en effet convergente, de somme 12 · 1 1 = 1.
P
2 1− 2

Dans le cas fini, une probabilité sort du lot : la probabilité uniforme. C’est elle que l’on considère dans le cas
de dés non pipés/honnêtes/équilibrés, des pièces non truquées ou de tirages supposés équiprobables.

Définition 10.26 : Probabilité uniforme


Soit Ω un ensemble fini. On appelle probabilité uniforme sur Ω l’unique probabilité qui prend la même
valeur pour chaque événement élémentaire.

1 1
Pour une telle probabilité, en posant n = card(Ω), P({ω}) = = . Si A est un événement,
card(Ω) n
X 1 card(A) nombre de cas où A se réalise nombre de cas favorables
P(A) = = = =
ω∈A
n card(Ω) nombre de cas possibles nombre de cas possibles

Exercice 8
On considère une urne contenant 3 boules noires, 4 blanches et 5 rouges.
(a) On tire simultanément 3 boules. Quelle est la probabilité qu’elles soient toutes de la même couleur ?
de couleurs différentes ?
(b) Reprendre les questions précédentes pour un tirage successif de trois boules avec/sans remise.

Notons qu’il est impossible de définir une probabilité uniforme sur un univers dénombrable.

3 – Théorèmes limites et applications

Proposition 10.27 : Continuité croissante


Soit (A n )n∈N une suite croissante d’événements (au sens de l’inclusion) sur un espace probabilisé (Ω, A , P).
Alors, +∞ 
[
P A n = lim P(A n )
n →+∞
n=0

© Mickaël PROST Année 2024/2025


Partie II – Des tribus aux probabilités 11

Démonstration
• Tout d’abord, par croissance de la probabilité,

∀n ∈ N, A n ⊂ A n+1 =⇒ ∀n ∈ N, P(A n ) ⩽ P(A n+1 )



La suite pn n∈N définie par pn = P(A n ) étant croissante et majorée (par 1), elle converge. Ainsi, la limite
figurant dans l’énoncé a bien un sens.
‚ Œ
n
[ n
[
• La suite (A n )n∈N étant croissante, A k = A n donc P A k = P(A n ). On ne peut cependant pas passer
k =0 k =0
à la limite aussi facilement. On va devoir pour cela utiliser l’axiome de σ-additivité.

A0
Les événements A n n’étant pas deux à deux
A1 incompatibles, on utilise le subterfuge :
A2 A 0 = B0 B1 B2 B3 B4
A n+1 = A n ⊔ (A n+1 \ A n )
A3
qui nous amène à poser :
A4
B0 = A 0 et pour tout n ⩾ 1, Bn = A n \ A n −1
Les événements Bn sont deux à deux incompatibles
+∞
[ +∞
G
• Ainsi construits, les événements Bn sont deux à deux incompatibles et An = Bn .
n=0 n =0
+∞
[
 +∞
G
 +∞
X
• Par σ-additivité, P An = P Bn = P(Bn ). De plus,
n=0 n=0 n=0

n n
– ™
X X
∀n ∈ N, P(Bk ) = (P(A k ) − P(A k −1 )) + P(A 0 ) = P(A n )
k =0 k =1
+∞
[
 +∞
X
Ainsi, P An = P(Bn ) = lim P(A n ). ■
n→+∞
n =0 n=0

De même, si (A n )n∈N est une suite décroissante d’événements sur un espace probabilisé (Ω, A , P), alors :
+∞ 
\
P A n = lim P(A n )
n →+∞
n=0


Il suffit d’appliquer la proposition précédente à la suite croissante d’événements A n n∈N pour justifier ce
résultat qualifié, lui, de continuité décroissante. En pratique, on aura plutôt recours au corollaire suivant.

Corollaire 10.28
Soit (A n )n∈N une suite d’événements sur un espace probabilisé (Ω, A , P). Alors,
 p  +∞   p  +∞ 
[ [ \ \
lim P An = P An et lim P An = P An
p →+∞ p →+∞
n =0 n=0 n=0 n=0

Démonstration
On applique la proposition précédente aux suites respectivement croissante et décroissante d’événements
p
[ p
\
(Bp ) et (Cp ) définies par Bp = A n et Cp = An . ■
n=0 n=0

Année 2024/2025 Lycée Louis-le-Grand – MP


12 Chap. 10 Fondements des probabilités

Exemple
On lance une pièce de monnaie équilibrée jusqu’à obtenir pile. Le jeu s’arrête presque sûrement dans le
sens où nous allons prouver que la probabilité de n’obtenir que des face est nulle. Notons pour cela Fn
l’événement « obtenir face au n ième lancer ». Par indépendance des tirages,
n
‚ Œ
n
\ Y 1
P Fk = P(Fk ) =
k =1 k =1
2n

Il est tentant de passer à la limite ! Et c’est justement ce que nous permet de faire le résultat précédent :
+∞  ‚
n
Œ
\ \ 1
P Fn = lim P Fk = lim =0
n→+∞ n→+∞ 2n
n=1 k =1

Bien que sa réalisation soit possible, l’événement « obtenir seulement des face » est de probabilité nulle : il
est négligeable ou quasi-impossible.

Proposition 10.29 : Sous-additivité finie


Soit (A 1 , . . . , A n ) une famille d’événements sur un espace probabilisé (Ω, A , P). Alors,
n
‚ Œ
n
[ X
P Ak ⩽ P(A k )
k =0 k =0

Démonstration
n
‚ Œ
n
[ X
Montrons par récurrence sur n que P Ak ⩽ P(A k )
k =0 k =0
• La formule est évidente pour n = 0. Elle est également vraie pour n = 1 :

P(A 0 ∪ A 1 ) = P(A 0 ) + P(A 1 ) − P(A 0 ∩ A 1 ) ⩽ P(A 0 ) + P(A 1 )


‚ Œ
n+1
[ n
[
• Supposons la propriété vraie à un certain rang n. Comme Ak = A k ∪ A n+1 ,
k =0 k =0

n n +1
‚ Œ ‚ Œ
n+1
[ n
[ X X
P Ak ⩽ P A k + P(A n +1 ) ⩽ P(A k ) + P(A n+1 ) = P(A k )
k =0 k =0 k =0 k =0

La propriété est ainsi démontrée au rang n + 1. ■

Un simple passage à la limite nous conduit directement à l’inégalité suivante.

Proposition 10.30 : Sous-additivité dénombrable


Soit (A n )n∈N une suite d’événements sur un espace probabilisé (Ω, A , P).
+∞
[
 +∞
X
P An ⩽ P(A n ) (égalité dans [0, +∞])
n=0 n=0

La propriété de sous-additivité dénombrable s’applique facilement pour justifier que la réunion dénombrable
d’événements négligeables reste négligeable.

Corollaire 10.31
Une réunion au plus dénombrable d’événements négligeables est négligeable.

© Mickaël PROST Année 2024/2025


Partie III – Conditionnement et indépendance 13

Démonstration
Soit (A n )n∈N une suite d’événements négligeables.
+∞  +∞ +∞ 
[ X [
D’après l’inégalité précédente, P An ⩽ P(A n ) = 0. D’où P A n = 0. ■
n =0 n=0 n=0

De même, la réunion d’événements presque certains est encore un événement presque certain.

Définition 10.32 : Système quasi-complet d’événements


Soit (Ω, A , P) un espace probabilisé. On appelle système complet d’événements toute famille au plus
dénombrable (A i )i ∈I d’événements vérifiant :
 
G
(i) pour tous i , j ∈ I distincts, A i ∩ A j = ∅ (ii) P Ai = 1
i ∈I

 
G G
La condition P A i = 1 est plus lâche que A i = Ω : la réunion n’est plus une partition de Ω si elle omet
i ∈I i ∈I
certains événements négligeables ; ce qui n’empêchera pas d’appliquer la formule des probabilités totales.

Exemple
Revenons à notre exemple de lancer de pièce de monnaie équilibrée jusqu’à obtenir pile. Notons A n l’événe-
ment « obtenir le premier pile au n ième lancer ». En d’autres termes, A n = F1 ∩ · · · ∩ Fn−1 ∩ Fn .
(A n )n⩾1 n’est pas un système complet d’événements à cause du tirage infini
+∞ depile.
G
C’est en revanche un système quasi-complet d’événements puisque P A n = 1.
n=1

III | Conditionnement et indépendance

A – Probabilité conditionnelle
Lorsque l’on dispose d’informations sur le résultat d’une expérience donnée, il est possible d’affiner nos
prédictions. Considérons par exemple le lancer d’un dé non pipé. On associe à cette expérience l’univers
Ω = ⟦1, 6⟧ et on note A l’événement « le résultat est impair », B l’événement « le résultat est 3 ».
• Quelle est la probabilité d’obtenir 3 ? Bien évidemment, P(B ) = 1/6.
• Maintenant, sachant que le résultat est impair, quelle est la probabilité d’avoir obtenu 3 ? Tout se passe
comme si l’on avait « déformé » notre univers des possibles en se restreignant à Ω′ = A = {1, 3, 5}.
On trouve alors une probabilité de 1/3.
P(A) = 1/2 et P(B ) = 1/6. La probabilité que B soit réalisé sachant que A l’est vaut :

P(A ∩ B ) nombre de cas favorables pour A ∩ B 1/6 1


= = =
P(A) nombre de cas favorables pour A 1/2 3

On dit que l’événement A a conditionné l’ensemble des issues possibles, c’est-à-dire l’univers Ω.

Théorème / Définition 10.33 : Probabilité conditionnelle


Soient (Ω, A , P) un espace probabilisé et un A événement tel que P(A) ̸= 0. L’application

PA : A −→ R
P(A ∩ B )
B 7−→
P(A)

est une probabilité sur Ω. On l’appelle probabilité conditionnelle relative à A (ou sachant A).
Pour tout événement B , PA (B ) – notée encore P(B |A) – est appelée probabilité de B sachant A.

Année 2024/2025 Lycée Louis-le-Grand – MP


14 Chap. 10 Fondements des probabilités

Démonstration
Montrons que PA définit bien une probabilité sur Ω.
P(A ∩ B )
• Pour tout B ∈ A , A ∩ B ⊂ A donc par croissance de P, ∈ [0, 1].
P(A)
P(A ∩ Ω)
• PA (Ω) = = 1.
P(A)
• Soit (Bn )n∈N une suite d’événements deux à deux incompatibles.

\ +∞

G
 +∞
G
 +∞
X
+∞ P A Bn P (A ∩ Bn ) P(A ∩ Bn ) +∞ +∞
P(A ∩ Bn ) X

n =0
X
n=0 n=0
G
PA Bn = = = = = PA (Bn )
n=0
P(A) P(A) P(A) n=0
P(A) n=0

car les événements A ∩ Bn sont deux à deux incompatibles. ■

Il importe de bien faire la distinction entre PA (B ), probabilité que l’événement B se réalise sachant que A est
réalisé, et P(A ∩ B ), probabilité que les deux événements A et B se réalisent simultanément.

De plus, si l’utilisation de la notation P(B |A) au lieu de PA (B ) peut s’avérer agréable, il s’agit de comprendre
que l’écriture B |A prise isolément n’a aucun sens : on ne conditionne pas un événement par un autre : l’objet
« B |A » est indéfini, ce n’est pas un événement.

Revenons maintenant à quelques résultats déjà abordés en première année. Nous n’en donnerons une dé-
monstration que lorsque celle-ci diffère du fait de l’éventuel caractère infini de l’univers considéré.

B – Les trois grandes formules de probabilités conditionnelles

1 – Formule des probabilités composées

Lemme 10.34
Soient A et B deux événements d’un espace probabilisé (Ω, A , P). Alors, si P(A) ̸= 0,

P(A ∩ B ) = P(A) · PA (B ) = P(A) · P(B |A)

On notera qu’en général, P(A ∩ B ) ̸= P(A) · P(B ).

Théorème 10.35 : Formule des probabilités composées


Soient (Ω, A , P) un espace probabilisé et A 1 , A 2 , . . . , A n des événements tels que P(A 1 ∩· · ·∩ A n−1 ) ̸= 0. Alors,

P(A 1 ∩ · · · ∩ A n ) = P(A 1 )PA 1 (A 2 )PA 1 ∩A 2 (A 3 ) · · · PA 1 ∩···∩A n −1 (A n ) = P(A 1 )P(A 2 |A 1 ) · · · P(A n |A 1 ∩ · · · ∩ A n−1 )

Exemple
Une urne contient 4 boules blanches et 3 boules noires. On tire au hasard successivement et sans remise
quatre boules dans cette urne. Quelle est la probabilité d’obtenir deux boules blanches puis deux noires ?
On munit pour cela Ω = {b1 , b2 , b3 , b4 , n1 , n2 , n3 } de la probabilité uniforme. On note Bi l’événement « obtenir
une boule blanche au i e tirage », Ni l’événement « obtenir une boule noire au i e tirage ».
On calcule P(B1 ∩ B2 ∩ N3 ∩ N4 ) à l’aide de la formule des probabilités composées.

4 1 3 1
P(B1 ) = ; P(B2 |B1 ) = ; P(N3 |B2 ∩ B1 ) = et P(N4 |N3 ∩ B2 ∩ B1 ) =
7 2 5 2
4 1 3 1 3
On trouve ainsi P(B1 ∩ B2 ∩ N3 ∩ N4 ) = × × × = .
7 2 5 2 35

© Mickaël PROST Année 2024/2025


Partie III – Conditionnement et indépendance 15

Exercice 9 C
Une puce se déplace par sauts successifs sur les sommets et le centre
de gravité d’un triangle équilatéral. Au temps t = 0, elle est en O . À
chaque instant, elle saute du point où elle se trouve en l’un des autres
points de façon équiprobable. O
A B
(i) Calculer la probabilité qu’elle revienne en O pour la première fois au temps t = n .
(ii) Calculer la probabilité de l’événement « la puce revient en O ». Commenter.

2 – Formule des probabilités totales

Théorème 10.36 : Formule des probabilités totales


Soient (Ω, A , P) un espace probabilisé et (A n )n∈N un système complet d’événements.
Pour tout événement B , la série de terme général P(B ∩ A n ) est convergente et :
+∞
X +∞
X
P(B ) = P(B ∩ A n ) = P(B |A n )P(A n )
n=0 n=0

Démonstration
Si (A n )n∈N est un système complet d’événement, quel que soit l’événement B ,
+∞  +∞
G G
B = B ∩Ω= B ∩ An = (B ∩ A n )
n=0 n=0
+∞
G
 +∞
X +∞
X
Par σ-additivité, P(B ) = P (B ∩ A n ) = P(B ∩ A n ) = P(B |A n )P(A n ). ■
n=0 n=0 n=0

(i) Pour que cette formule ait toujours un sens, on conviendra que P(B |A n )P(A n ) = 0 lorsque P(A n ) = 0.
(ii) La formule est encore valable lorsque la suite (A n )n∈N décrit un système quasi-complet d’événements.
Cas particulier : si A est un événement, alors (A, A) est un système complet d’événements.
Pour peu que P(A) ∈]0; 1[, pour tout B ∈ A , P(B ) = P(B |A)P(A) + P(B |A)P(A).

Exemple
Une compagnie d’assurance distingue deux types d’assurés : les conducteurs à risque représentent 20% des
assurés et les conducteurs prudents 80%. Les premiers ont une probabilité de 0.5 d’avoir un accident par an
alors que les seconds seulement 0.1. Quelle est la probabilité qu’un nouvel assuré provoque un accident
dans l’année qui suit la signature du contrat ? dans les deux ans suivant la signature du contrat ?
Notons R l’événement « le conducteur est à risque » et A l’évé-
1/2 R ∩A
nement « le conducteur provoque un accident dans l’année ». La
première probabilité que l’on nous demande de calculer est P(A). 1/5 R
1/2 R ∩A
D’après la formule des probabilités totales,

P(A) = P(A|R )P(R ) + P(A|R )P(R ) 1/10
4/5
R ∩A
1 1 1 4 9 R
= · + · = 9/10
2 5 10 5 50 R ∩A

Rappelons qu’il est important d’accompagner son raisonnement de tout schéma explicatif mais que celui-ci
ne peut constituer une preuve.
Pour la deuxième question, mieux vaut calculer la probabilité pour un nouvel assurant de ne pas provoquer
9 2 9 2
= 2419
 
d’accident dans les deux premières années, à savoir 50 . On trouve ainsi 1 − 50 2500 ≈ 97%.

Année 2024/2025 Lycée Louis-le-Grand – MP


16 Chap. 10 Fondements des probabilités

Exercice 10
Des boules en nombre infini sont placées successivement et indépendamment dans trois boîtes.
(i) Pour k ⩾ 2, on note A k l’événement « deux des trois boîtes sont non vides pour la première fois lorsqu’on
+∞
X
place la k −ième boule ». Calculer P(A k ) puis P(A k ). Interpréter.
k =2
(ii) Pour i ⩾ 3, on note Bi l’événement « les trois boîtes sont non vides pour la première fois lorsqu’on place
+∞
X
la i −ème boule ». Calculer P(Bi |A k ) pour k ⩾ 2 et i ⩾ 3. En déduire P(Bi ) puis P(Bi ). Interpréter.
i =3

3 – Formule de Bayes

Théorème 10.37 : Formule de Bayes


Soient (Ω, A , P) un espace probabilisé.
P(A)
• Si (A, B ) est un couple d’événements vérifiant P(A) · P(B ) ̸= 0, alors, P(A|B ) = P(B |A).
P(B )
• Si (A n )n∈N est un système complet d’événements et B ∈ A , alors,

P(B |A k )P(A k )
∀k ∈ N, P(A k |B ) = +∞
X
P(B |A n )P(A n )
n=0

La formule de Bayes permet de « remonter aux causes » en inversant le conditionnement.

Exemple
Un magasin vend des téléviseurs provenant de deux entreprises (40% pour l’entreprise A et 60% pour
l’entreprise B). 5% des appareils provenant de l’entreprise A présentent un défaut, 3% pour l’entreprise B.
J’achète un appareil défectueux, quelle est la probabilité qu’il provienne de l’entreprise A ?
On note FA l’événement « l’appareil a été fabriqué par l’entreprise A » et D l’événement « il est défectueux ».

P(FA )P(D |FA ) P(FA )P(D |FA ) 4 5 500 10


P(FA |D ) = = = · · =
P(D ) P(D |FA )P(FA ) + P(D |FB )P(FB ) 10 100 19 19

Exercice 11
Un magasin possède n caisses. Les clients se répartissent de façon indépendante et équiprobable entre les
λk
différentes caisses. On suppose que la probabilité qu’il y ait k clients dans le magasin est pk = e−λ . La
k!
caisse n°1 a reçu m clients un jour donné. Donner la probabilité qu’il y ait eu dans le magasin n · m clients.

C – Indépendance
Intuitivement, deux événements sont indépendants si la réalisation de l’un n’est pas conditionnée par la
réalisation de l’autre. En clair, si P(B |A) = P(B ) lorsque P(A) > 0. Cette idée se traduit par la définition suivante.

Définition 10.38 : Indépendance mutuelle d’événements


Soit (Ω, A , P) un espace probabilisé.
• Deux événements A et B sont dits indépendants si P(A ∩ B ) = P(A) · P(B ).
• Soit (A i )i ∈I une famille d’événements.
‚ Œ Ces événements sont dits (mutuellement) indépendants si
\ Y
pour toute partie finie J ⊂ I , P Aj = P(A j ).
j ∈J j ∈J

On retiendra que l’indépendance de deux événements est une propriété qui se vérifie par un calcul de pro-
babilités... mais pas toujours ! L’indépendance d’une famille d’événements peut être supposée d’emblée par

© Mickaël PROST Année 2024/2025


Partie IV – Variables aléatoires discrètes 17

l’énoncé, mais c’est alors tout le modèle probabiliste retenu (univers, tribu, probabilité) qui s’adapte à cette
hypothèse préalable. Cela ne va pas sans poser de problème de fond : rien ne nous garantit, par exemple,
l’existence d’un espace probabilisé (Ω, A , P) adapté au jeu de pile ou face, modèle pour lequel l’indépendance
de l’ensemble des lancers devrait être assurée. Cette question non triviale sera momentanément laissée de
côté 2 . Par le calcul ou comme hypothèse préalable, dans tous les cas, on suivra le chemin tracé par l’énoncé !
Deux remarques supplémentaires :  n
\
 n
Y
• si les événements A 1 , . . . , A n sont mutuellement indépendants, P Ai = P(A i ). En revanche, cette
i =1 i =1
égalité ne garantit pas la mutuelle indépendance. Pour s’en convaincre, considérer le cas où A n = ∅.
• La mutuelle indépendance assure l’indépendance deux à deux des événements : P(A i ∩ A j ) = P(A i )P(A j )
si i ̸= j . La réciproque est à nouveau fausse. Considérer pour cela les événements A = {1, 2}, B = {1, 3} et
C = {1, 4} et la probabilité uniforme P définie sur Ω = {1, 2, 3, 4}.

Proposition 10.39
Si les événements A et B sont indépendants, alors A et B , A et B , A et B le sont également.

Démonstration
Par exemple, P(A ∩ B ) = P(A \ B ) = P(A) − P(A ∩ B ) = P(A) − P(A)P(B ) = P(A)P(B ) par indép. de A et B . ■

Par extension, si A 1 , . . . , A n sont mutuellement indépendants, il en va de même pour B1 , . . . , Bn où Bi ∈ {A i , A i }.

Exercice 12
Déterminer la probabilité d’une réunion finie d’événements mutuellement indépendants.

IV | Variables aléatoires discrètes


A – Généralités
Bien souvent, les événements dont on cherche à calculer la probabilité sont construits à partir de valeurs
numériques prises par certaines grandeurs associées à une expérience aléatoire, comme « le nombre de pile
obtenus au cours des tirages vaut 5 », ou « la somme des valeurs des deux dés vaut 7 ». L’introduction de variables
aléatoires pour décrire les résultats d’une expérience aura comme double objectif d’aboutir à des rédactions
épurées mais aussi, pour ne pas dire surtout, d’enrichir un point de vue jusqu’à présent purement ensembliste
par l’introduction de fonctions.
Dans toute la suite, (Ω, A ) désignera un espace probabilisable quelconque et E un ensemble non vide.

Définition 10.40 : Variable aléatoire discrète


Soient (Ω, A ) un espace probabilisable et E un ensemble non vide. On appelle variable aléatoire discrète
toute application X : Ω → E telle que :
• X (Ω) est un ensemble fini ou dénombrable ;
• Pour tout x ∈ X (Ω), X −1 ({x }) ∈ A .
L’événement X −1 ({x }) est traditionnellement noté (X = x ) ou {X = x }.

La définition nous assure de pouvoir définir la probabilité de l’événement (X = x ). Plusieurs remarques :


• Malgré son nom, une variable aléatoire n’est pas une variable (c’est une fonction) et elle n’est pas aléatoire.
• Lorsque E = R (la situation la plus courante), la variable aléatoire discrète est qualifiée de réelle.
• X (Ω) est l’image (directe) de Ω par X . Par définition d’une v.a.d., on écrira couramment X (Ω) = {xn | n ∈ N}.
• Si Ω est au plus dénombrable, il en va de même pour X (Ω). Dans ce cas, on constate qu’en munissant Ω de
sa tribu naturelle P (Ω), toute fonction de Ω dans E est une variable aléatoire ; il n’y a alors rien à vérifier.
2. Nous y répondrons efficacement au moyen d’un théorème d’existence spécifique aux variables aléatoires.

Année 2024/2025 Lycée Louis-le-Grand – MP


18 Chap. 10 Fondements des probabilités

• Lorsque Ω n’est pas dénombrable (exemple du pile ou face), prouver que X est une variable aléatoire n’est
pas toujours chose aisée. À noter : les variables à densité ne figurent pas au programme de MP.

Si A ⊂ E , X −1 (A) désigne l’image réciproque de A par X :

X −1 (A) = {ω ∈ Ω | X (ω) ∈ A} = (X ∈ A)
déf. notation

La notation X −1 (A) ne sous-entend aucunement la bijectivité de X . (X ∈ A) est clairement un événement :

Proposition 10.41
Soient (Ω, A ) un espace probabilisable et X une variable aléatoire discrète sur cet espace.
Si A ⊂ X (Ω), alors (X ∈ A) est un événement.

Démonstration
[
A est au plus dénombrable et (X ∈ A) = (X = x ) ∈ A comme réunion au plus dénombrable d’événements.
x ∈A

Dans le cas d’une variable aléatoire réelle, on note également :

(X ⩽ x ) = X −1 (] − ∞, x ]) = {ω ∈ Ω | X (ω) ⩽ x } ; (X < x ) = X −1 (] − ∞, x [) = {ω ∈ Ω | X (ω) < x }

(X ⩾ x ) = X −1 ([x , +∞[) = {ω ∈ Ω | X (ω) ⩾ x } ; (X > x ) = X −1 (]x , +∞[) = {ω ∈ Ω | X (ω) > x }

Exercice 13
On lance simultanément deux dés discernables. On note X la somme des valeurs obtenues et Y le maximum
des deux valeurs. Expliciter les événements suivants :
(X > 10) ; (X ⩾ 11) ; (X ⩽ 1) ; (Y = 3) ; (Y ∈ {1, 2})

Théorème 10.42
Soient (Ω, A ) un espace probabilisable et X une variable aléatoire discrète sur cet espace.
Avec les notations précédentes, la famille ((X = x )) x ∈X (Ω) est un système complet d’événements.

Démonstration Ω
Soient ω ∈ Ω et x ∈ X (Ω). Alors, ω ∈ (X = x ) ⇐⇒ X (ω) = x . (X = x0 )
Ainsi, tout élément ω appartient à un, et un seul, événement (X = x ) :
(X = x1 )
G
Ω= (X = x )
x ∈X (Ω)
···
(X = x2 )

Lorsque Ω estGau plus dénombrable, on pourra écrire X (Ω) = {xn | n ∈ N} (X = x3 )


et donc Ω = (X = xn ).
n∈N
((X = xn ))n ∈N est un s.c.e.
Exercice 14
Décrire le système complet d’événements associé à la variable Y introduite dans l’exercice précédent.

B – Loi d’une variable aléatoire


On munit désormais l’espace probabilisable (Ω, A ) d’une probabilité P.

Définition 10.43 : Loi d’une variable aléatoire


Soit X une variable aléatoire discrète sur un espace probabilisé (Ω, A , P). On appelle loi de probabilité
de X (ou plus simplement loi de X ) l’application PX : A ∈ P (X (Ω)) 7→ P(X ∈ A).

La donnée d’une variable X à valeurs dans E confère à X (Ω) une structure d’espace probabilisé (et même par
extension à l’ensemble E ).

© Mickaël PROST Année 2024/2025


Partie IV – Variables aléatoires discrètes 19

Théorème 10.44
Soit X une variable aléatoire discrète sur un espace probabilisé (Ω, A , P). PX est une probabilité sur X (Ω).

Démonstration
• Pour tout A ⊂ X (Ω), PX (A) = P(X ∈ A) ∈ [0, 1].
• PX (X (Ω)) = P(X ∈ X (Ω)) = P(Ω) = 1.
• Pour une suite (A n ) d’événements incompatibles,

G
 
G
 +∞
X +∞
X
PX An = P (X ∈ A n ) = P(X ∈ A n ) = PX (A n )
n ∈N n∈N n=0 n=0

La loi de X est entièrement déterminée par la distribution de probabilités (P(X = x )) x ∈X (Ω) , appelée distribution
de probabilités de X . On appelle support de la loi l’ensemble des éléments x de E tels que P(X = x ) ̸= 0.
Dans le cas fini, la loi d’une variable peut être représentée par un tableau ou par un diagramme en bâtons.
Réciproquement, étant donné une certaine distribution de probabilités (px ) x ∈E définie sur un ensemble E au
plus dénombrable, il est toujours possible de définir une variable aléatoire X de loi donnée par (px ) x ∈E .

Théorème 10.45 : Existence d’une variable aléatoire de distribution de probabilités donnée


Soit (px ) x ∈E une distribution de probabilités définie sur un ensemble E au plus dénombrable.
Il existe un espace probabilisé (Ω, A , P) et une variable aléatoire discrète X de loi donnée par (px ) x ∈E .

Démonstration
Il suffit de considérer l’espace probabilisé (E , P (E ), P) où P est définie par P({x }) = px .
En prenant X = idE , pour tout x ∈ E , P(X = x ) = px . ■

Rappelons quelques notations utiles :


• Si une variable X suit une certaine loi de probabilité L , on notera X ∼ L .
• Si deux variables X et Y suivent une même loi de probabilité, on notera X ∼ Y .
Deux variables aléatoires X et Y suivent la même loi si X (Ω) = Y (Ω) et pour tout x ∈ X (Ω), P(X = x ) = P(Y = x ).
Attention, l’égalité en loi ne présuppose pas que les variables X et Y sont définies sur le même univers, ni donc
a fortiori qu’elles sont égales.

Exemples
1
• Soit X une variable aléatoire suivant une loi de Rademacher, c’est-à-dire que P(X = 1) = P(X = −1) = .
2
Alors, X ∼ −X .
• On considère une pièce équilibrée que l’on lance 10 fois. Le nombre X de piles obtenus et le nombre Y
de faces obtenues suivent la même loi mais ne sont pas identiques.

Terminons ce premier tour d’horizon avec une dernière définition relative au conditionnement.

Définition 10.46 : Loi conditionnelle d’une variable aléatoire


Soient X une variable aléatoire discrète sur un espace probabilisé (Ω, A , P) et un événement A de probabi-
lité non nulle. On appelle loi conditionnelle de X sachant A la loi de X pour la probabilité PA , c’est-à-dire
l’application B ⊂ X (Ω) 7→ PA (X ∈ B ).

Exercice 15
On choisit un entier X aléatoirement entre 1 et 2n. Donner la loi de X sachant (X ⩽ n).

Année 2024/2025 Lycée Louis-le-Grand – MP


20 Chap. 10 Fondements des probabilités

C – Opérations sur les variables aléatoires


Il est courant de définir une variable aléatoire fonction d’autres variables aléatoires. En particulier, la donnée
d’une application f : E → F entre deux ensembles E et F non vides et d’une variable aléatoire discrète X
définie sur un espace probabilisé (Ω, A , P) à valeurs dans E permet de définir une nouvelle variable aléatoire
f ◦ X , traditionnellement notée f (X ). Il reste à vérifier que l’on a bien ainsi défini une variable aléatoire.

Proposition 10.47
Soient (Ω, A ) un espace probabilisable, X une variable aléatoire discrète à valeurs dans E , ainsi qu’une
application f : E → F . Alors, f (X ) est une variable aléatoire discrète.

Démonstration
Posons Y = f (X ). Y (Ω) = f (X (Ω)) est au plus dénombrable et :
[
∀y ∈ Y (Ω), (Y = y ) = (X = x ) ∈ A
x ∈X (Ω)
f (x )=y

Proposition 10.48 : Loi de f (X )


Soient (Ω, A , P) un espace probabilisable, X une variable aléatoire discrète à valeurs dans E , ainsi qu’une
application f : E → F . Alors, la loi de f (X ) est entièrement déterminée par f et la loi de X et :
X
∀A ⊂ f (X (Ω)), P f (X ) (A) = P(f (X ) ∈ A) = P(X = x )
x ∈X (Ω)
f (x )∈A

Démonstration
Soit A ⊂ f (X (Ω)). Alors,
G G G
(f (X ) ∈ A) = (f (X ) ∈ A) ∩ Ω = (f (X ) ∈ A) ∩ (X = x ) = (f (x ) ∈ A) ∩ (X = x ) = (X = x )
x ∈X (Ω) x ∈X (Ω) x ∈X (Ω)
f (x )∈A)

En particulier, si deux variables X et Y suivent la même loi, il en va de même pour f (X ) et f (Y ).

Notons enfin que les considérations précédentes s’étendent aux fonctions de plusieurs variables en considérant
des n -uplets de variables aléatoires. En effet, si pour tout i ∈ ⟦1, n ⟧, X i est une variable discrète à valeurs dans
un ensemble Ei , on vérifie aisément que X = (X 1 , . . . , X n ) est elle-même une variable discrète à valeurs dans
E1 × · · · × En , appelée vecteur aléatoire. De ce fait, la somme et le produit de variables aléatoires discrètes réelles
sont encore des variables aléatoires. Ainsi, X 2 , X + Y , X Y ou encore min(X , Y ) sont des variables aléatoires.
La loi d’une somme de n variables aléatoires s’exprime facilement :
X
P(X 1 + · · · + X n = x ) = P(X 1 = x1 , . . . , X n = xn )
(x1 ,...,xn )∈Rn
x1 +···+xn =x

En revanche, le calcul peut s’avérer délicat sans autre hypothèse, comme l’indépendance des variables aléatoires
qui fera l’objet de la section suivante.

Exercice 16
Déterminer la loi de X 2 où X est une variable aléatoire dont la table de probabilité est :

xi −2 −1 0 1 2

P(X = xi ) 0.10 0.35 0.15 0.25 0.15

© Mickaël PROST Année 2024/2025


Partie IV – Variables aléatoires discrètes 21

Exercice 17
Soit X une variable aléatoire discrète sur l’espace probabilisé (Ω, A , P) telle que X (Ω) = N∗ et,
α
∀k ∈ N∗ , P(X = k ) =
k (k + 1)(k + 2)
1. Déterminer la valeur de α.
2. Montrer que Y = X + 1 est une variable aléatoire réelle discrète et déterminer sa loi.
3. Montrer que Z = X 2 − 4X + 4 est une variable aléatoire réelle discrète et déterminer sa loi.

D – Lois usuelles
Toutes les lois qui suivent sont directement définies à partir de la distribution de probabilités associée. X
désignera une variable aléatoire discrète définie sur (Ω, A , P) et à valeurs dans E .

1 – Loi certaine

Définition 10.49 : Loi certaine


On dit que la variable aléatoire X suit la loi certaine ou qu’elle est presque sûrement constante s’il existe
x ∈ E tel que P(X = x ) = 1.

2 – Loi uniforme

Définition 10.50 : Loi uniforme


On dit que la variable aléatoire X suit la loi uniforme sur un ensemble fini E si :

1
X (Ω) = E et ∀x ∈ E , P(X = x ) =
|E |
Notation : X ∼ U (E ).

P(X = k )

Situations types : 1/3

• Lancer d’un dé équilibré ;


• Tirage aléatoire d’une boule dans une urne. k
1 2 3 4
LOI DE PROBABILITÉ POUR E = ⟦1, 3⟧
3 – Loi de Bernoulli

Définition 10.51 : Loi de Bernoulli


On dit que la variable aléatoire X suit la loi de Bernoulli de paramètre p ∈ [0, 1] si :

X (Ω) = {0, 1} et P(X = 1) = p


Notation : X ∼ B(p ) ou X ∼ B(1, p ).

On notera qu’alors P(X = 0) = q = 1 − p .


P(X = k )
Situations types :
2/3
• Lancer d’une pièce truquée (lancer unique) ;
• Tirage d’une boule dans une urne avec a boules noires et b 1/3

boules blanches. k
a

Si on note X le nombre de boules noires tirées, X ∼ B a +b . −1 0 1 2
LOI DE PROBABILITÉ POUR p = 2/3
Exemple fondamental : si A est un événement, 1A ∼ B(P(A)).

Année 2024/2025 Lycée Louis-le-Grand – MP


22 Chap. 10 Fondements des probabilités

4 – Loi binomiale

Définition 10.52 : Loi binomiale


On dit que la variable aléatoire X suit la loi binomiale de paramètre (n , p ) ∈ N∗ × [0, 1] si :
 
n k n−k
X (Ω) = ⟦0, n ⟧ et ∀k ∈ ⟦0, n ⟧, P(X = k ) = p q où q = 1 − p
k

Notation : X ∼ B(n , p ).

Vérifions que l’on a bien défini une loi de probabilité :


  n n  
n k n −k X X n k n−k
∀k ∈ ⟦0, n ⟧, P(X = k ) = p q ⩾0 et P(X = k ) = p q = (p + q )n = 1
k k =0 k =0
k

Pour n = 1, on retrouve le cas particulier d’une loi de Bernoulli.

Une loi binomiale de paramètres (n , p ) apparaît lorsque l’on compte le nombre de succès lors de la répétition
de n expériences aléatoires indépendantes conduisant à une situation de succès (de probabilité p ) ou d’échec
(de probabilité q = 1 − p ). En notant X le nombre de succès, X ∼ B(n, p ).

Démonstration
Soient n ∈ N∗ et p ∈ [0, 1]. X (Ω) = ⟦0, n ⟧. Considérons une série de n lancers de pièce qui amène pile avec une
probabilité p ∈]0, 1] et face avec une probabilité 1 − p . Notons A i l’événement « pile apparaît au i e lancer ».
Pour tout k ∈ ⟦1, n⟧, en notant Pk (⟦1, n ⟧) l’ensemble des parties à k éléments de ⟦1, n ⟧.
‚ Œ
G \ \
(X = k ) = Ai ∩ Ai
I ∈Pk (⟦1,n⟧) i ∈I /I
i∈
‚ Œ  
X \ \ X
k n−k n k n−k
Ainsi, par indépendance, P(X = k ) = P Ai ∩ Ai = p q = p q . ■
/I
k
I ∈Pk (⟦1,n⟧) i ∈I i∈ I ∈Pk (⟦1,n ⟧)

On se débarrassera de ce formalisme inutile en constatant dans la section suivante que la somme de n variables
indépendantes suivant toutes des lois de Bernoulli de paramètre p suit une loi binomiale de paramètre (n , p ).

Situations types :
• Lancers successifs d’une pièce éventuellement truquée ;
• Tirages successifs avec remise de n boules dans une urne avec a boules noires et b boules blanches.
a
Si on note X le nombre de boules noires tirées, X ∼ B n , a +b .

P(X = k ) P(X = k )
1/2 1/2

1/4 1/4

k k
1 2 3 4 5 6 1 2 3 4 5 6
REPRÉSENTATION D’UNE LOI BINOMIALE DE REPRÉSENTATION D’UNE LOI BINOMIALE DE
1 1
 
PARAMÈTRES 6, 2 PARAMÈTRES 6, 3

© Mickaël PROST Année 2024/2025


Partie IV – Variables aléatoires discrètes 23

5 – Loi géométrique

Définition 10.53 : Loi géométrique


On dit que la variable aléatoire X suit la loi géométrique de paramètre p ∈]0, 1] sur N∗ si :

X (Ω) = N∗ et ∀n ∈ N∗ , P(X = n ) = q n−1 p où q = 1 − p

Notation : X ∼ G (p ).

Vérifions que l’on a bien défini une loi de probabilité :


+∞ +∞ +∞
X X X p
∀n ∈ N∗ , P(X = n ) = q n−1 p ⩾ 0 et P(X = n ) = p q n−1 = p qn = =1
n=1 n=1 n =0
1−q

Une loi géométrique apparaît lorsque l’on s’intéresse à une succession d’épreuves de Bernoulli indépendantes
jusqu’à obtenir un premier succès. On parle alors de temps d’attente du premier succès.

Démonstration
Considérons une série infinie de lancers de pièce qui amène pile avec une probabilité p ∈]0, 1] et face
avec une probabilité 1 − p . Notons A k l’événement « pile apparaît au k e lancer ». Par indépendance des
événements,

∀k ⩾ 2 P(X = k ) = P A 1 ∩ A 2 ∩ · · · ∩ A k −1 ∩ A k = P(A 1 ) × · · · × P(A k −1 ) × P(A k ) = q k −1 p




De plus, P(X = 1) = p . P(X = n ) ■


1/2

Situations types :
• Premier pile obtenu au cours de lancers successifs d’une pièce
1/4
truquée ;
• Tirages successifs avec remise de boules dans une urne avec des
boules noires et blanches jusqu’à obtenir une boule noire.
n
1 2 3 4 5 6 7 8 ···
REPRÉSENTATION D’UNE LOI GÉOMÉTRIQUE
DE PARAMÈTRE 1/3

Nous avons jusqu’à présent interprété une loi géométrique comme le temps d’attente du 1er succès dans une
suite d’épreuves de Bernoulli indépendantes. Si un observateur commence son observation au temps n et qu’il
constate que l’événement ne s’est pas encore produit, quelle est la probabilité que l’événement se produise
au temps n + k ? Elle est en fait égale à la probabilité que l’événement se produise au temps k , comme si rien
ne s’était produit jusque là. La loi géométrique est qualifiée de « loi sans mémoire » ; c’est même la seule loi
discrète vérifiant cette propriété.

Proposition 10.54 : Caractérisation comme loi sans mémoire


Soit X une variable aléatoire sur un espace probabilisé (Ω, A , P) telle que X (Ω) = N∗ .
X suit une loi géométrique sur N∗ si et seulement si :

∀(k , n) ∈ N2 , P(X > n + k |X > n ) = P(X > k )

Démonstration n n
X X
Remarquons tout d’abord que si X ∼ G (p ), P(X > n ) = 1 − P(X = k ) = 1 − p q k −1 = q n . L’interprétation
k =1 k =1
est simple : la réalisation de l’événement à un temps supérieur à n nécessite n premiers échecs consécutifs.
P(X > n + k ) q n+k
=⇒ Si X ∼ G (p ) avec p ∈]0, 1[, pour tout (k , n) ∈ N2 , P(X > n + k |X > n) = = = P(X > k ).
P(X > n ) qn

Année 2024/2025 Lycée Louis-le-Grand – MP


24 Chap. 10 Fondements des probabilités

⇐= Supposons maintenant que pour tout (k , n ) ∈ N, P(X > n + k |X > n ) = P(X > k ).
Ainsi, P(X > n + 1) = P(X > n + 1|X > n )P(X > n) = P(X > 1)P(X > n ).
En posant q = P(X > 1), on voit que (P(X > n ))n∈N∗ est une suite géométrique de raison q .

∀n ∈ N∗ , P(X > n ) = q P(X > n − 1) = · · · = q n −1 P(X > 1) = q n

Ainsi, P(X = n ) = P(X ⩽ n ) − P(X ⩽ n − 1) = P(X > n − 1) − P(X > n ) = q n−1 − q n = p q n−1 ; X ∼ G (p ). ■

6 – Loi de Poisson

Contrairement aux lois précédentes, il s’avère difficile de donner un modèle simple qui conduise à une loi
de Poisson. Celle-ci apparaît plus naturellement comme une loi limite. Cette loi a été introduite en 1838 par
Poisson et sert souvent à modéliser l’apparition d’événements rares.
Définition 10.55 : Loi de Poisson
On dit que la variable aléatoire X suit la loi de Poisson de paramètre λ ∈ R∗+ si :

λn −λ
X (Ω) = N et ∀n ∈ N, P(X = n ) = e
n!
Notation : X ∼ P (λ).

Vérifions que l’on a bien défini une loi de probabilité :


+∞ +∞ +∞
λn −λ X X λn X λn
∀n ∈ N, P(X = n ) = e ⩾ 0 et P(X = n) = −λ
e =e −λ
= e−λ eλ = 1
n! n=0 n=0
n! n=0
n!

Théorème 10.56 : Approximation d’une loi binomiale par une loi de Poisson
Si pour tout n ∈ N∗ , X n ∼ B(n , pn ) et si lim n pn = λ, alors,
n→+∞
λk
∀k ∈ N, P(X n = k ) −−−−→ e−λ
n→+∞ k!

Démonstration
n (n − 1) × · · · × (n − k + 1) k
 
n k
Pour tout k ∈ N, P(X n = k ) = pn (1 − pn )n−k = pn (1 − pn )n−k .
k k!
(n pn )k (n−k ) ln(1−pn )
Donc P(X n = k ) ∼ e . Or (n − k ) ln(1 − pn ) ∼ −n pn puisque pn −−−−→ 0.
n →+∞ k! n→+∞ n→+∞
λk
Ainsi, P(X n = k ) −−−−→ e−λ . ■
n→+∞ k!
Ce résultat affirme que si l’on réalise un grand nombre d’épreuves de Bernoulli indépendantes de paramètre
vérifiant pn ∼ λ/n , le nombre de succès suit approximativement une loi de Poisson de paramètre λ. La
n →+∞
qualité de l’approximation reste en revanche à quantifier.
1 import numpy as np
2 import m a t p l o t l i b . pyplot as p l t 0.25
3 loi binomiale
4
5
p = 0.1
n = 30
loi de Poisson
6 0.20
7 def binom ( n , k ) :
8 r e t u r n np . math . f a c t o r i a l ( n ) / ( np . math . f a c t o r i a l ( k ) *np . math .
f a c t o r i a l ( n−k ) )
9 0.15
10 def B ( k ) :
P(X=k)

11 r e t u r n binom ( n , k ) *p* * k *(1−p ) * * ( n−k )


12
13 def P ( k ) : 0.10
14 r e t u r n np . exp(−n*p ) * ( n*p ) * * k/np . math . f a c t o r i a l ( k )
15
16 f o r k in range ( 1 0 ) :
17 p l t . p l o t ( [ k − 0.1 , k − 0.1] , [ 0 , B ( k ) ] , ’ b ’ , l i n e w i d t h = 6 ) 0.05
18 p l t . p l o t ( [ k + 0 . 1 , k + 0 . 1 ] , [ 0 , \P ( k ) ] , ’ g ’ , l i n e w i d t h = 6 )
19 p l t . a x i s ( [ − 0 . 2 , 1 0 . 5 , 0 , 0 . 2 5 ] )
20 p l t . g r i d ( True )
21 p l t . x l a b e l ( ’ k ’ ) 0.00
22 p l t . y l a b e l ( ’ \P ( X=k ) ’ )
0 2 4 6 8 10
k
23 p l t . legend ( [ ’ l o i binomiale ’ , ’ l o i de Poisson ’ ] )
24 p l t . show ( )
APPROXIMATION D’UNE LOI BINOMIALE PAR UNE LOI DE POISSON

© Mickaël PROST Année 2024/2025


Partie V – Familles de variables aléatoires 25

V | Familles de variables aléatoires

A – Couples de variables aléatoires

Théorème / Définition 10.57 : Couple de variables, loi conjointe, lois marginales


Soient X , Y deux variables aléatoires discrètes définies sur un espace probabilisé (Ω, A , P) et à valeurs
respectivement dans E et F . Alors,
• (X , Y ) : Ω → E × F est une variable aléatoire discrète.
• La loi de (X , Y ) est appelée loi conjointe de X et Y .
• Les lois de X et Y sont appelées lois marginales de (X , Y ).

Démonstration

• X (Ω) et Y (Ω) sont au plus dénombrables. Il en va de même pour (X , Y )(Ω) ⊂ X (Ω) × Y (Ω).

• Pour tout (x , y ) ∈ (X , Y )(Ω), (X , Y ) = (x , y ) = (X = x ) ∩ (Y = y ) ∈ A . ■

• On notera qu’en général, (X , Y )(Ω) ̸= X (Ω) × Y (Ω) malgré l’inclusion évidente.


 
• On pourra utiliser les notations suivantes : (X = x ) ∩ (Y = y ) = (X , Y ) = (x , y ) = X = x , Y = y .
• Donner la loi conjointe de (X , Y ) revient à calculer P(X = x , Y = y ) pour tout (x , y ) ∈ X (Ω) × Y (Ω).

• (X = x , Y = y ) (x ,y )∈X (Ω)×Y (Ω) est un système complet d’événements.

Exercice 18
On lance deux dés. On note X le maximum des valeurs obtenues, Y la valeur du deuxième dé.
Que vaut X (Ω) ? Y (Ω) ? (X , Y )(Ω) ?

Les lois marginales se déduisent de la loi conjointe (la réciproque est fausse !). En effet, d’après la formule des
probabilités totales appliquée aux systèmes complets d’événements ((X = x )) x ∈X (Ω) et (Y = y ) y ∈Y (Ω) ,

X
P (X = x ) = P (X = x ) ∩ Y = y

∀x ∈ X (Ω),
y ∈Y (Ω)
 X
P (X = x ) ∩ Y = y

∀y ∈ Y (Ω), P Y =y =
x ∈X (Ω)

Dans le cas fini, la loi conjointe peut être représentée par une table de probabilités. Le résultat précédent
exprime l’idée qu’il suffit de sommer les éléments le long des lignes et des colonnes pour retrouver les lois
marginales.

Exemple
On considère une urne avec 4 boules B1 , B2 , B3 , B4 et les tirages de 2 boules successifs avec remise. On
note X 1 le numéro de la boule au 1er tirage et X 2 le numéro de la boule au 2ème tirage. On pose enfin
Y = max(X 1 , X 2 ) et Z = (X 1 , Y ). Quelle est la loi conjointe de X 1 et Y ? X 1 (Ω) = Y (Ω) = ⟦1, 4⟧ et de plus,

1
X 1 /Y 1 2 3 4 ∀k ∈ {1, . . . , 4}, P(X 1 = k ) =
1 1 1 1 4
1 16 16 16 16
1 1 1 1 3
2 0 8 16 16 P(Y = 1) = ; P(Y = 2) = ;
3 1 16 16
3 0 0 16 16
5 7
4 0 0 0 1
4 P(Y = 3) = ; P(Y = 4) = .
16 16

Année 2024/2025 Lycée Louis-le-Grand – MP


26 Chap. 10 Fondements des probabilités

Exemple
Une urne contient deux boules B et n ∈ N∗ boules N . On tire toutes les boules une par une.
On note X le rang du tirage de la 1e boule blanche tirée, Y celui de la 2ème .
Quelle est la loi du couple (X , Y ) ? la loi de X ? la loi de Y ? la loi de Y − X ?
• Ω est l’ensemble des arrangements des n + 2 boules parmi n + 2 et X (Ω) = ⟦1, n + 1⟧, Y (Ω) = ⟦2, n + 2⟧.
2
• (X = i ) ∩ (Y = j ) = ∅ pour i ⩾ j , et pour i < j , P((X = i ) ∩ (Y = j )) = .
(n + 1)(n + 2)
• On en tire facilement les lois de X et Y :
n+2 n+2
X X 2(n + 2 − i )
P (X = i ) = P((X = i ) ∩ (Y = j )) = P((X = i ) ∩ (Y = j )) =
j =2 j =i +1
(n + 1)(n + 2)
n+1 j −1
 X X 2( j − 1)
P Y =j = P((X = i ) ∩ (Y = j )) = P((X = i ) ∩ (Y = j )) =
i =1 i =1
(n + 1)(n + 2)

• (Y − X )(Ω) = ⟦1, n + 1⟧ ; ((X = i )) étant un système complet d’événements,


n+1
X 2(n + 2 − k )
∀k ∈ ⟦1, n + 1⟧, P (Y − X = k ) = P (Y = X + k ) = P (Y = X + k |X = i ) P(X = i ) =
i =1
(n + 1)(n + 2)

Exercice 19
Dans une succession de pile ou face pour laquelle la probabilité d’obtenir pile est p ∈]0, 1[ et d’obtenir face
est q = 1 − p , on note X le rang d’apparition du premier pile et Y celui du second.
Déterminer la loi conjointe de (X , Y ) puis les lois marginales.

Définition 10.58 : Loi conditionnelle


Soient X , Y deux variables aléatoires discrètes définies sur un espace probabilisé (Ω, A , P).
On appelle loi conditionnelle de X sachant (Y = y ) pour P(Y = y ) ̸= 0, la loi définie par :

P (X = x ) ∩ (Y = y )
∀x ∈ X (Ω), P(Y =y ) (X = x ) = 
P Y =y

On définit de même la loi conditionnelle de Y sachant (X = x ) pour P(X = x ) ̸= 0.

Théorème / Définition 10.59 : Indépendance de deux variables aléatoires


Deux variables aléatoires discrètes X et Y définies sur un espace probabilisé (Ω, A , P) sont dites indépen-
dantes si l’une des deux assertions équivalentes suivantes est vérifiée :
(i) Pour tout (x , y ) ∈ X (Ω) × Y (Ω), P (X = x ) ∩ (Y = y ) = P (X = x ) × P Y = y .
 

(ii) Pour tout (A, B ) ⊂ X (Ω) × Y (Ω), P(X ∈ A, Y ∈ B ) = P(X ∈ A) × P(Y ∈ B ).


Notation (inutile) : X ⊥
⊥Y.

Démonstration
 
Supposons que pour tous x ∈ X (Ω) et y ∈ Y (Ω), P X = x , Y = y = P (X = x ) × P Y = y .
Soit (A, B ) ⊂ X (Ω) × Y (Ω). Alors, par sommabilité,
X X X
P(X ∈ A) · P(Y ∈ B ) = P(X = x ) · P(Y = y ) = P(X = x ) · P(Y = y )
x ∈A y ∈B (x ,y )∈A×B
!
X G
= P(X = x , Y = y ) = P (X = x , Y = y ) = P (X ∈ A, Y ∈ B )
ind.
(x ,y )∈A×B (x ,y )∈A×B

La réciproque est immédiate. ■

© Mickaël PROST Année 2024/2025


Partie V – Familles de variables aléatoires 27

En cas d’indépendance, on retrouve la loi conjointe à partir des lois marginales. Plus précisément, le résultat
précédent montre que la distribution de probabilités associée à (X , Y ) est le produit des distributions de
probabilités des variables X et Y .

Exemple – somme de deux variables indépendantes (important !)


On exprime facilement la loi de la somme de deux variables aléatoires indépendantes X et Y à partir des
lois marginales. Dans le cas de variables prenant des valeurs entières, on trouve :
X k
X
∀k ∈ (X + Y )(Ω), P(X + Y = k ) = P(X = i )P(Y = j ) = P(X = i )P(Y = k − i )
(i , j )∈N2 i =0
i + j =k

Corollaire 10.60
Soient X et Y deux variables aléatoires sur (Ω, A , P) et deux applications f : X (Ω) → E et g : Y (Ω) → F .
Si X et Y sont indépendantes, alors f (X ) et g (Y ) sont indépendantes.

Démonstration
 
Soient e ∈ E et f ∈ F . Alors, P f (X ) = e , g (Y ) = f = P X ∈ f −1 ({e }), Y ∈ g −1 ({ f } et donc, par indépen-
  
dance, P f (X ) = e , g (Y ) = f = P X ∈ f −1 ({e }) · P Y ∈ g −1 ({ f } = P(X = e ) · P(Y = f ). ■

Exemple
Si X et Y sont indépendantes, alors X 2 et Y 2 le sont également.

B – Familles finies de variables aléatoires


On étend sans difficulté les définitions et résultats précédents aux n -uplets de variables aléatoires :
• si pour tout i ∈ ⟦1, n ⟧, X i est une variable discrète sur (Ω, A , P) à valeurs dans un ensemble Ei , alors
X = (X 1 , . . . , X n ) est une variable discrète à valeurs dans E1 × · · · × En ;
• la loi de X est appelée loi conjointe quand les lois des variables X i sont qualifiées de lois marginales ;
• chaque loi marginale se retrouve à partir de la loi conjointe. En posant F1 = E1 × · · · × Ei −1 × Ei +1 × · · · × En ,
X
∀i ∈ ⟦1, n ⟧, ∀y ∈ X i (Ω), P(X i = y ) = P(X 1 = x1 , . . . , X i = y , . . . , X n = xn )
(x1 ,...,xi −1 ,xi +1 ,...,xn )∈Fi

Théorème / Définition 10.61 : Variables aléatoires mutuellement indépendantes


Soit (X i )1⩽i ⩽n une famille finie de variables aléatoires définies sur (Ω, A , P). Les variables sont dites
(mutuellement) indépendantes si l’une des deux assertions équivalentes suivantes est vérifiée :
n
Y
(i) Pour tout (x1 , . . . , xn ) ∈ X 1 (Ω) × · · · × X n (Ω), P(X 1 = x1 , . . . , X n = xn ) = P(X i = xi ).
i =1
(ii) Pour tout (A 1 , . . . , A n ) ⊂ X 1 (Ω) × · · · × X n (Ω), les événements (X 1 ∈ A 1 ) , . . . , (X n ∈ A n ) sont mutuelle-
ment indépendants.

Démonstration
Soit (A 1 , . . . , A n ) ⊂ X 1 (Ω) × · · · × X n (Ω). À l’image de l’indépendance de deux variables, par sommabilité :
n
Y n X
Y X n
Y
P(X i ∈ A i ) = P(X i = xi ) = P(X i = xi )
i =1 i =1 xi ∈A i (x1 ,...,xn )∈A 1 ×···×A n i =1
X
= P(X 1 = x1 , . . . , X n = xn ) = P(X 1 ∈ A 1 , . . . , X n ∈ A n )
ind.
(x1 ,...,xn )∈A 1 ×···×A n
 
\ Y
Prouvons maintenant que toute partie I de ⟦1, n ⟧, P (X i ∈ A i ) = P(X i ∈ A i ).
i ∈I i ∈I

Année 2024/2025 Lycée Louis-le-Grand – MP


28 Chap. 10 Fondements des probabilités

On pose pour cela Bi = A i si i ∈ I et Bi = X i (Ω) sinon. En adaptant l’égalité précédemment démontrée,



\
 n
\
 n
Y Y
P (X i ∈ A i ) = P (X i ∈ Bi ) = P(X i ∈ Bi ) = P(X i ∈ A i )
i ∈I i =1 i =1 i ∈I

On prendra garde au fait que si la mutuelle indépendance implique l’indépendance deux à deux, la réciproque
est, comme pour les événements, fausse !

Exemple
Les événements F1 , . . . , Fn sont indépendants ssi les indicatrices 1F1 , . . . , 1Fn sont des variables indépendantes.

Énonçons un dernier résultat qui rendra de précieux services et qui se fonde sur une intuition peu originale : si
X , Y et Z sont mutuellement indépendants, il en va de même pour X + Y et Z .

Théorème 10.62 : Lemme des coalitions


Soient X 1 , . . . , X n des variables indépendantes sur un espace probabilisé (Ω, A , P), E et F deux ensembles,
m ∈ ⟦1, n ⟧ et f : X 1 (Ω) × · · · × X m (Ω) → E , g : X m +1 (Ω) × · · · × X n (Ω) → F .
Alors, f (X 1 , . . . , X m ) et g (X m +1 , . . . , X n ) sont indépendantes.

Démonstration
On montre que les variables aléatoires X = (X 1 , . . . , X m ) et Y = (X m +1 , . . . , X n ) sont indépendantes. ■

Nous serons couramment amenés à déterminer la loi d’une somme de n variables aléatoires réelles :
X
P(X 1 + · · · + X n = x ) = P(X 1 = x1 , . . . , X n = xn )
(x1 ,...,xn )∈Rn
x1 +···+xn =x

Lorsque les variables aléatoires sont indépendantes,


X X
P(X 1 + · · · + X n = x ) = P(X 1 = x1 , . . . , X n = xn ) = P(X 1 = x1 ) × · · · × P(X n = xn )
(x1 ,...,xn )∈Rn (x1 ,...,xn )∈Rn
x1 +···+xn =x x1 +···+xn =x

Donnons maintenant deux exemples fondamentaux de sommes de variables aléatoires indépendantes.

Lemme 10.63 : Formule de Vandermonde (HP)


p  
n +m
  
X n m
On considère trois entiers naturels m , n , p tels que p ⩽ n + m. Alors, = .
k =0
k p −k p

Démonstration
Donnons une preuve non combinatoire de ce résultat. Posons pour cela P = (X + 1)n et Q = (X + 1)m .
n +m
 
n +m
• Le terme de degré p du polynôme P Q = (X + 1) a pour expression X p.
p
X n m
   p   
i+j
X n m
• En utilisant la formule du produit de deux polynômes, X = X p.
i + j =p
i j k =0
k p − k
D’où l’égalité par identification. ■

Théorème 10.64 : Somme de variables indépendantes suivant une loi binomiale


On suppose toutes les variables aléatoires définies sur un même espace probabilisé (Ω, A , P).
(i) Si X ∼ B(n1 , p ) et Y ∼ B(n2 , p ) sont indépendantes, alors X + Y ∼ B(n1 + n2 , p ).
(ii) Si X 1 ∼ B(n1 , p ), . . . , X m ∼ B(nm , p ) sont indépendantes, alors X 1 + · · · + X m ∼ B(n1 + · · · + nm , p ).

© Mickaël PROST Année 2024/2025


Partie V – Familles de variables aléatoires 29

Démonstration
(i) Soient X ∼ B(n1 , p ) et Y ∼ B(n2 , p ) indépendantes. (X + Y )(Ω) = ⟦0, n1 + n2 ⟧ et pour k ∈ ⟦0, n1 + n2 ⟧,
k k  
n1 + n2 k n1 +n2 −k
  
X X n1 n2 k n1 +n2 +k
P(X + Y = k ) = P(X = i )P(Y = k − i ) = p q = p q
i =0 i =0
i k −i k

(ii) On raisonne par récurrence en utilisant l’indépendance des variables X 1 + · · · + X n et de X n+1 . ■

Ainsi, la somme de n variables de Bernoulli indépendantes de même paramètre suit une loi binomiale.

Théorème 10.65 : Somme de variables indépendantes suivant une loi de Poisson (HP)
On suppose toutes les variables aléatoires définies sur un même espace probabilisé (Ω, A , P).
(i) Si X ∼ P (λ) et Y ∼ P (µ) sont indépendantes, alors X + Y ∼ P (λ + µ).
(ii) Si X 1 ∼ P (λ1 ), . . . , X n ∼ P (λn ) sont indépendantes, alors X 1 + · · · + X n ∼ P (λ1 + · · · + λn ).

Démonstration
Supposons X ∼ P (λ) et Y ∼ P (µ) indépendantes. Alors, (X + Y )(Ω) = N et pour tout n ∈ N,
n n n  
−λ λ −µ µ (λ + µ)n
n −i
X X i
e−(λ+µ) X n i n−i
P(X + Y = n) = P(X = i )P(Y = n − i ) = e e = λµ = e−(λ+µ)
i =0 i =0
i! (n − i )! n ! i =0 i n!

C – Familles infinies de variables aléatoires


On considère une famille infinie (X i )i ∈I de variables aléatoires sur un espace probabilisé (Ω, A , P). Alors,
• les variables X i sont dites indépendantes si pour toute partie finie J de I , la famille (X i )i ∈J est indépendante.
• si les variables X i suivent de plus toutes la même loi, on dira que (X i )i ∈I est une famille de variables
indépendantes et identiquement distribuées ou, en abrégé, une famille de variables i.i.d.
• la suite (X n )n∈N est qualifiée de processus à temps discret, quand la famille (X t )t ∈R+ est qualifiée de
processus à temps continu.
L’existence d’espaces probabilisés portant des familles infinies de variables aléatoires discrètes indépendantes
est un enjeu majeur dans la modélisation de phénomènes aléatoires comme le jeu du pile ou face infini. Le
théorème suivant, dont la démonstration est inhérente à la construction de la mesure de Lebesgue, est admis.

Théorème 10.66 : Théorème d’extension de Kolmogorov


Soit (Ln )n⩾1 une suite de lois discrètes sur des ensembles En . Il existe un espace probabilisé (Ω, A , P) et
une suite (X n )n⩾1 de variables aléatoires indépendantes telles que pour tout n ⩾ 1, X n ∼ Ln .

Ce théorème valide, dans un énoncé, toute formulation de la forme : « On considère une suite (X n )n∈N de
variables aléatoires indépendantes et identiquement distribuées, de loi [...] ».

Exemple – loi géométrique, le retour


Soit (X n )n∈N∗ une suite de variables de Bernoulli de paramètre p ∈]0, 1] indépendantes. On pose :

T = min n ∈ N∗ ∪ {+∞} | X n = 1


• T est bien une variable aléatoire. Il suffit de vérifier que T (Ω) est dénombrable et que pour tout n ∈ N∗ ,
n−1
\ +∞
\
(T = n) = (X n = 1) ∩ (X k = 0) ∈ A et (T = +∞) = (X k = 0) ∈ A .
k =1 k =1
• Pour tout n ∈ N , P(T = n ) = P(X 1 = · · · = X n−1 = 0, X n = 1) = q n −1 p par indépendance.

+∞
X
• De plus, P(T = +∞) = 1 − P(T ∈ N∗ ) = 1 − P(T = k ) = 0. Concluons : T ∼ G (p ).
k =1

Année 2024/2025 Lycée Louis-le-Grand – MP

Vous aimerez peut-être aussi