Probas 1
Probas 1
Plan de cours
n
n
G X
Plus généralement, si A 1 , . . ., A n sont disjoints, alors card Ak = card(A k ).
k =1 k =1
Proposition 10.3
Soient deux ensembles finis E et F .
(i) S’il existe une injection de E dans F alors card(E ) ⩽ card(F ).
(ii) S’il existe une surjection de E dans F alors card(E ) ⩾ card(F ).
(iii) S’il existe une bijection de E dans F alors card(E ) = card(F ).
Exemples
• Une urne contient des boules noires et des boules blanches. Le tirage successif d’une boule blanche,
puis d’une boule noire et enfin d’une boule blanche peut être représenté par le mot B N B . L’ensemble des
tirages possibles de trois boules est alors : {B B B , N B B , B N B , N N B , N B N , B B N , B N N , N N N }.
On constate qu’il y a 8 = 2 × 2 × 2 possibilités.
• On pioche cinq cartes simultanément dans un jeu de 32 cartes. Une « main » possible est :
{As♥, R♣, 8♣, D♦, 9♥}. Notons que contrairement au cas précédent, l’ordre n’a pas d’importance.
Bien entendu, il sera rarement question de proposer une énumération exhaustive des différentes possibilités
pour déterminer le cardinal d’un ensemble. Il s’agira plutôt de reformuler un problème donné pour se ramener
à des situations familières, s’appuyant (par exemple) sur l’un des trois modèles suivants :
tirages successifs avec remise (modélisés par des listes)
tirages successifs sans remise (modélisés par des arrangements)
tirages simultanés (modélisés par des combinaisons)
Revenons sur ces éléments, en considérant un ensemble fini E à n éléments ainsi qu’un entier naturel p .
1 – Listes et uplets
Définition 10.4
On appelle p -uplet ou p -liste de E toute famille de p éléments de E , c’est-à-dire un élément de E p .
Il y a exactement n p p -uplets de E .
Exemple
On tire trois cartes avec remise dans un jeu comportant 32 cartes. Il y a alors 323 tirages possibles.
Proposition 10.5
Le nombre d’applications d’un ensemble E de cardinal n vers un ensemble F de cardinal p vaut n p .
2 – Arrangements
Exemple
Si E = {1, 2, 3}, les arrangements de deux éléments sont : (1, 2), (1, 3), (2, 1), (2, 3), (3, 1) et (3, 2).
Démonstration
On peut procéder par récurrence ou, plus simplement, de la façon suivante.
Choisir un arrangement (x1 , . . . , xp ) de E revient à choisir x1 parmi n éléments, puis x2 parmi n − 1 éléments,
. . ., jusqu’à xp parmi les n − p + 1 éléments restants. Au final, n × (n − 1) × · · · × (n − p + 1) possibilités. ■
Exercice 1
Une association comportant 27 membres doit élire un président, un secrétaire et un trésorier.
Quel est le nombre de possibilités ?
À chaque arrangement (x1 , . . . , xp ) de E , on peut associer de manière unique l’application f : ⟦1, p ⟧ → E définie
par f (i ) = xi . L’application est injective, ce qui conduit au résultat suivant.
Proposition 10.8
n!
Si E est de cardinal p et F de cardinal n , le nombre d’applications injectives de E dans F est .
(n − p )!
3 – Permutations
Exemple
Si E = {1, 2, 3}, les permutations de E sont (1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2) et (3, 2, 1).
À chaque permutation (x1 , . . . , xn ) de E , on peut associer de manière unique l’application f : ⟦1, n⟧ → E définie
par f (i ) = xi . L’application étant injective, elle est bijective ; d’où le résultat suivant.
Proposition 10.11
Il y a n! bijections de E vers E .
Exercice 2
• Combien existe-t-il d’anagrammes du mot SABORD ? du mot BACHIBOUZOUK ?
• Combien peut-on fabriquer de colliers distincts avec 5 perles de couleurs différentes ?
4 – Combinaisons
Attention à la différence de nature entre un arrangement (une liste d’éléments de E ) et une combinaison (une
partie de E ). L’ordre n’important pas dans la constitution d’une combinaison, les combinaisons seront bien
moins nombreuses que les arrangements.
Exemple
Si E = {1, 2, 3}, les combinaisons de deux éléments sont : {1, 2}, {1, 3} et {2, 3}.
Démonstration
Considérons une combinaison {x1 , . . . , xp } de p éléments de E . On peut alors lui associer p ! arrangements
distincts. Réciproquement, à un arrangement donné, on ne peut lui associer qu’une seule combinaison. Si
p n! p p n! n
on note Cn le nombre de combinaisons de E à p éléments, = p !Cn et donc : Cn = = .
(n − p )! p !(n − p )! p
Exercice 3
On dispose d’un jeu classique de 32 cartes et on en distribue 8 à 4 joueurs.
• Combien y a-t-il de jeux possibles par joueur ?
• Combien y a-t-il de jeux contenant 6 cartes rouges ?
Exercice 5
Soient n, p ∈ N∗ . Déterminer le nombre :
(i) de p -listes strictement croissantes d’éléments de ⟦1, n ⟧.
(ii) de p -listes croissantes d’éléments de ⟦1, n ⟧.
(iii) de listes (n1 , . . . , np ) d’entiers positifs ou nuls tels que n1 + · · · + np = n .
(iv) de listes (n1 , . . . , np ) d’entiers strictement positifs tels que n1 + · · · + np = n .
C – Indicatrice
On rappelle que si A est une partie de E , on définit la fonction indicatrice (ou caractéristique) de A sur E par :
1 si x ∈ A
∀x ∈ E , 1A (x ) =
/A
0 si x ∈
Les opérations sur les ensembles peuvent se traduire par des opérations sur les indicatrices.
Proposition 10.17
Soient A et B deux parties d’un ensemble E , A étant supposée finie dans la dernière assertion. Alors,
Exemple
(A i )1⩽i ⩽n est une partition de E si et seulement si 1A 1 + · · · + 1A n = 1.
B – Tribu et événements
Le programme de première année se limite aux expériences aléatoires associées à des univers finis. Dans
ce cadre, on peut écrire Ω = {ω1 , . . . , ωn } et appeler événement toute partie de Ω ; P (Ω) représentant alors
l’ensemble des événements associés à une expérience aléatoire donnée. Tout événement s’écrit comme réunion
finie d’événements élémentaires, c’est-à-dire d’événements de la forme {ω} avec ω ∈ Ω.
Exemple
On lance un dé et on obtient 5. Ω = ⟦1, 6⟧.
• L’événement « face impaire » décrit par A = {1, 3, 5} est donc réalisé.
• L’événement « score supérieur ou égal à 3 » décrit par A = {3, 4, 5, 6} est réalisé.
Munir Ω d’une probabilité revient à définir sur P (Ω) une application P à valeurs dans [0, 1] vérifiant P(Ω) = 1 et
une propriété d’additivité : P(A ⊔ B ) = P(A) + P(B ) pour tous événements A et B incompatibles. On remarque
en première année que définir une telle application revient à se donner une famille de réels positifs (pk )1⩽k ⩽n ,
de somme égale à 1. P est en effet entièrement définie par la donnée de P({ωk }) = pk , la probabilité de toute
partie de P (Ω) s’obtenant alors en écrivant cette partie comme réunion disjointe d’événements élémentaires.
Lorsque l’univers Ω est dénombrable, même combat ! La description de l’univers sous la forme Ω = {ωn | n ∈ N}
nous permet d’écrire toute partie de Ω comme réunion (cette fois-ci dénombrable) d’événements élémentaires.
Il ne nous reste plus qu’à introduire une probabilité comme application P : P (Ω) → [0, 1] vérifiant :
+∞
G
+∞
X
P(Ω) = 1 et P An = P(A n )
n =0 n=0
La deuxième propriété, dite d’additivité dénombrable ou σ-additivité, s’avère indispensable si l’on souhaite
sortir du cadre fini et effectuer des passages à la limite (probabilité d’« obtenir une infinité de pile » par exemple).
Se doter d’une telle probabilité revient encore à se donner une famille de réels positifs (pk )k ∈N , de somme égale
à 1. La probabilité de toute partie de Ω, c’est-à-dire de tout événement, se retrouve alors au moyen de :
X
∀A ∈ P (Ω), P(A) = P({ωk })
ωk ∈A
En revanche, lorsque l’univers Ω n’est pas dénombrable, un fait nouveau et déroutant se produit, tout droit
issu de la théorie de la mesure : toutes les parties de Ω ne peuvent être considérées comme des événements car
il est impossible de définir une probabilité véritablement intéressante sur P (Ω).
Ne perdons cependant pas espoir de définir une probabilité sur un univers non dénombrable. Si P (Ω) est
trop riche, et c’est le cas lorsque Ω n’est pas dénombrable, il suffit de se débarrasser de ses éléments les plus
exotiques. L’ablation sera indolore, de telles parties de Ω ne peuvent se décrire au moyen d’une liste de parties
élémentaires et d’opérations ensemblistes : inaccessibles, elles sont en quelque sorte invisibles à nos yeux.
Fixons-nous un cahier des charges pour définir une partie A de P (Ω) qui regrouperait les parties de Ω qui
seraient par la suite qualifiées d’événements. Quelques considérations s’imposent :
• Si A est un événement, on s’attend à ce que A soit encore un événement.
+∞
[
• De même, si nous disposons d’une suite (A n ) d’événements, on souhaiterait que A n soit encore un évé-
n=0
nement, donc un élément de A . Cette propriété devrait s’étendre au cas des intersections dénombrables.
L’association des propriétés (ii) et (iii) montre qu’une tribu est stable par intersection dénombrable : si (A n )n ∈N
+∞
\
est une suite d’éléments de A , alors An ∈ A .
n=0
Exemples
Si Ω est un ensemble non vide, voici deux exemples de tribus naturelles :
1. Il est néanmoins possible de définir une telle probabilité sur un ensemble plus restreint que P ([0, 1]), appelé « tribu borélienne ».
Cette partie de P ([0, 1]) n’est rien d’autre que la tribu (voir définition ci-après) engendrée par les intervalles ouverts inclus dans [0, 1].
En pratique,
• si Ω est au plus dénombrable, on choisira A = P (Ω). La notion de tribu n’est alors plus très pertinente ;
• si Ω est non dénombrable, l’énoncé fournira le cadre adapté en admettant bien souvent l’existence d’une
tribu convenable autre que P (Ω). Si jamais l’énoncé s’en soucie. . .
A0 Exemples
Soit (Ω, A ) un espace probabilisable.
A1
• Si A est un événement, A, A est un s.c.e. ;
...
A2 • Si l’univers Ω = {ω1 , . . . , ωn } est fini, ({ω1 }, . . . , {ωn })
est un système complet d’événements.
A3
• Plus généralement, pour tout univers au plus dé-
nombrable Ω = {ωi | i ∈ N}, la famille ({ωi })i ∈N est
Représentation d’un système complet d’événements un système complet d’événements.
C – Probabilité
1 – Définition et premières propriétés
Le triplet (Ω, A , P) est alors appelé espace probabilisé. Il est dit discret lorsque Ω est au plus dénombrable.
• La somme qui apparaît dans la propriété (ii) est celle d’une série convergente. C’est ce que suppose implici-
tement l’axiome de σ-additivité.
• Si on considère une suite (A n )n ∈N d’événements deux à deux incompatibles telle que A n = ∅ pour n > p , la
propriété (ii) se traduit par :
P A 1 ∪ · · · ∪ A p = P(A 1 ) + · · · + P(A p )
En particulier, pour tout couple (A, B ) d’événements incompatibles, P(A ∪ B ) = P(A) + P(B ).
On retrouve alors les propriétés établies dans le cadre fini.
Proposition 10.21
Soient (Ω, A , P) un espace probabilisé et A, B ∈ A .
• P(∅) = 0 et P(A) = 1 − P(A).
• Si A ⊂ B alors P(A) ⩽ P(B ). (croissance de la probabilité)
• P(A ∪ B ) = P(A) + P(B ) − P(A ∩ B ).
Démonstration
Démontrons seulement la dernière propriété. A∩B
A ∪ B = (A \ B ) ⊔ (A ∩ B ) ⊔ (B \ A) donc :
P(A ∪ B ) = P(A \ B ) + P(A ∩ B ) + P(B \ A)
A B
= [P(A) − P(A ∩ B )] + P(A ∩ B ) + [P(B ) − P(A ∩ B )]
= P(A) + P(B ) − P(A ∩ B )
Proposition 10.22
Soient (Ω, A , P) un espace
X probabilisé, I un ensemble au plus dénombrable, et (A i )i ∈I un système complet
d’événements. Alors, P(A i ) = 1.
i ∈I
Définition 10.23
Soient (Ω, A , P) un espace probabilisé et A un événement.
(i) Si P(A) = 0, l’événement A est dit négligeable ou quasi-impossible.
(ii) Si P(A) = 1, l’événement A est dit presque sûr ou quasi-certain.
Définition 10.24
Soit Ω un ensemble. On appelle distribution de probabilités discrète sur Ω toute famille de réels positifs
indexée par Ω et de somme égale à 1.
Cette famille étant sommable, son support est nécessairement au plus dénombrable (cf. chapitre Procédés
sommatoires discrets). Dans la suite de ce paragraphe, on considérera donc uniquement des espace probabi-
lisés (Ω, A , P) discrets. Dans ce cadre spécifique, et comme mentionné précédemment, une probabilité est
entièrement déterminée par les valeurs prises sur chaque événement élémentaire. C’est le principe mis en
œuvre dans l’exercice suivant et l’objet du théorème qui suit.
Exercice 7
On dispose d’un dé pipé dont on connaît la table de probabilités.
Face obtenue 1 2 3 4 5 6
1 1 1 1 1 1
Probabilité 12 8 3 12 4 8
Montrer que cette table définit une unique probabilité sur Ω = ⟦1, 6⟧.
Quelle la probabilité qu’on obtienne un chiffre supérieur à 4 lors d’un tirage ? un chiffre pair ? impair ?
Théorème 10.25
Soit Ω un ensemble au plus dénombrable.
• Soit P une probabilité définie sur (Ω, P (Ω)). On pose, pour tout ω ∈ Ω, pω = P({ω}).
Alors, (pω )ω∈Ω est une distribution de probabilités.
• Si (pω )ω∈Ω est une distribution de probabilités, il existe une unique probabilité P définie sur (Ω, P (Ω))
telle que pour tout ω ∈ Ω, pω = P({ω}).
On établit ici une bijection entre l’ensemble des probabilités sur (Ω, P (Ω)) et l’ensemble des distributions de
probabilités discrètes.
Démonstration
G X
• Pour tout ω ∈ Ω, pω ∈ [0, 1]. Par σ-additivité, (pω ) est sommable et P(Ω) = P {ω} = pω = 1.
ω∈Ω ω∈Ω
• Réciproquement, donnons-nous une distribution de probabilités (pω )ω∈Ω . Soit P une application σ-
additive définie sur P (Ω) vérifiant pω = P({ω}) pour tout ω ∈ Ω. Nécessairement,
G X
∀A ∈ P (Ω), P(A) = P {ω} = pω
ω∈A ω∈A
L’unicité étant assurée, il reste à vérifier que l’on a bien défini une probabilité. On vérifie sans peine
que pour tout A ∈ P (Ω), P(A) ∈ [0, 1] puis que P(Ω) = 1. Soit maintenant une suite (A n )n∈N d’événements
deux à deux incompatibles, de réunion notée B . La famille (pω )ω∈B étant sommable, une sommation
par paquets donne :
+∞
G X +∞
X X +∞
X
P(B ) = P An = pω = pω = P(A n )
n =0 ω∈B n=0 ω∈A n n=0
■
Choisir les réels pω revient à choisir un modèle probabiliste (associé par exemple au lancer d’un dé pipé).
Exemple
Considérons N muni de sa tribu naturelle P (N). On définit une probabilité sur N en posant pour tout n ∈ N,
n+1
1
P({n }) = = pn . La série à termes positifs pn est en effet convergente, de somme 12 · 1 1 = 1.
P
2 1− 2
Dans le cas fini, une probabilité sort du lot : la probabilité uniforme. C’est elle que l’on considère dans le cas
de dés non pipés/honnêtes/équilibrés, des pièces non truquées ou de tirages supposés équiprobables.
1 1
Pour une telle probabilité, en posant n = card(Ω), P({ω}) = = . Si A est un événement,
card(Ω) n
X 1 card(A) nombre de cas où A se réalise nombre de cas favorables
P(A) = = = =
ω∈A
n card(Ω) nombre de cas possibles nombre de cas possibles
Exercice 8
On considère une urne contenant 3 boules noires, 4 blanches et 5 rouges.
(a) On tire simultanément 3 boules. Quelle est la probabilité qu’elles soient toutes de la même couleur ?
de couleurs différentes ?
(b) Reprendre les questions précédentes pour un tirage successif de trois boules avec/sans remise.
Notons qu’il est impossible de définir une probabilité uniforme sur un univers dénombrable.
Démonstration
• Tout d’abord, par croissance de la probabilité,
A0
Les événements A n n’étant pas deux à deux
A1 incompatibles, on utilise le subterfuge :
A2 A 0 = B0 B1 B2 B3 B4
A n+1 = A n ⊔ (A n+1 \ A n )
A3
qui nous amène à poser :
A4
B0 = A 0 et pour tout n ⩾ 1, Bn = A n \ A n −1
Les événements Bn sont deux à deux incompatibles
+∞
[ +∞
G
• Ainsi construits, les événements Bn sont deux à deux incompatibles et An = Bn .
n=0 n =0
+∞
[
+∞
G
+∞
X
• Par σ-additivité, P An = P Bn = P(Bn ). De plus,
n=0 n=0 n=0
n n
X X
∀n ∈ N, P(Bk ) = (P(A k ) − P(A k −1 )) + P(A 0 ) = P(A n )
k =0 k =1
+∞
[
+∞
X
Ainsi, P An = P(Bn ) = lim P(A n ). ■
n→+∞
n =0 n=0
De même, si (A n )n∈N est une suite décroissante d’événements sur un espace probabilisé (Ω, A , P), alors :
+∞
\
P A n = lim P(A n )
n →+∞
n=0
Il suffit d’appliquer la proposition précédente à la suite croissante d’événements A n n∈N pour justifier ce
résultat qualifié, lui, de continuité décroissante. En pratique, on aura plutôt recours au corollaire suivant.
Corollaire 10.28
Soit (A n )n∈N une suite d’événements sur un espace probabilisé (Ω, A , P). Alors,
p +∞ p +∞
[ [ \ \
lim P An = P An et lim P An = P An
p →+∞ p →+∞
n =0 n=0 n=0 n=0
Démonstration
On applique la proposition précédente aux suites respectivement croissante et décroissante d’événements
p
[ p
\
(Bp ) et (Cp ) définies par Bp = A n et Cp = An . ■
n=0 n=0
Exemple
On lance une pièce de monnaie équilibrée jusqu’à obtenir pile. Le jeu s’arrête presque sûrement dans le
sens où nous allons prouver que la probabilité de n’obtenir que des face est nulle. Notons pour cela Fn
l’événement « obtenir face au n ième lancer ». Par indépendance des tirages,
n
n
\ Y 1
P Fk = P(Fk ) =
k =1 k =1
2n
Il est tentant de passer à la limite ! Et c’est justement ce que nous permet de faire le résultat précédent :
+∞
n
\ \ 1
P Fn = lim P Fk = lim =0
n→+∞ n→+∞ 2n
n=1 k =1
Bien que sa réalisation soit possible, l’événement « obtenir seulement des face » est de probabilité nulle : il
est négligeable ou quasi-impossible.
Démonstration
n
n
[ X
Montrons par récurrence sur n que P Ak ⩽ P(A k )
k =0 k =0
• La formule est évidente pour n = 0. Elle est également vraie pour n = 1 :
n n +1
n+1
[ n
[ X X
P Ak ⩽ P A k + P(A n +1 ) ⩽ P(A k ) + P(A n+1 ) = P(A k )
k =0 k =0 k =0 k =0
La propriété de sous-additivité dénombrable s’applique facilement pour justifier que la réunion dénombrable
d’événements négligeables reste négligeable.
Corollaire 10.31
Une réunion au plus dénombrable d’événements négligeables est négligeable.
Démonstration
Soit (A n )n∈N une suite d’événements négligeables.
+∞ +∞ +∞
[ X [
D’après l’inégalité précédente, P An ⩽ P(A n ) = 0. D’où P A n = 0. ■
n =0 n=0 n=0
De même, la réunion d’événements presque certains est encore un événement presque certain.
G G
La condition P A i = 1 est plus lâche que A i = Ω : la réunion n’est plus une partition de Ω si elle omet
i ∈I i ∈I
certains événements négligeables ; ce qui n’empêchera pas d’appliquer la formule des probabilités totales.
Exemple
Revenons à notre exemple de lancer de pièce de monnaie équilibrée jusqu’à obtenir pile. Notons A n l’événe-
ment « obtenir le premier pile au n ième lancer ». En d’autres termes, A n = F1 ∩ · · · ∩ Fn−1 ∩ Fn .
(A n )n⩾1 n’est pas un système complet d’événements à cause du tirage infini
+∞ depile.
G
C’est en revanche un système quasi-complet d’événements puisque P A n = 1.
n=1
A – Probabilité conditionnelle
Lorsque l’on dispose d’informations sur le résultat d’une expérience donnée, il est possible d’affiner nos
prédictions. Considérons par exemple le lancer d’un dé non pipé. On associe à cette expérience l’univers
Ω = ⟦1, 6⟧ et on note A l’événement « le résultat est impair », B l’événement « le résultat est 3 ».
• Quelle est la probabilité d’obtenir 3 ? Bien évidemment, P(B ) = 1/6.
• Maintenant, sachant que le résultat est impair, quelle est la probabilité d’avoir obtenu 3 ? Tout se passe
comme si l’on avait « déformé » notre univers des possibles en se restreignant à Ω′ = A = {1, 3, 5}.
On trouve alors une probabilité de 1/3.
P(A) = 1/2 et P(B ) = 1/6. La probabilité que B soit réalisé sachant que A l’est vaut :
On dit que l’événement A a conditionné l’ensemble des issues possibles, c’est-à-dire l’univers Ω.
PA : A −→ R
P(A ∩ B )
B 7−→
P(A)
est une probabilité sur Ω. On l’appelle probabilité conditionnelle relative à A (ou sachant A).
Pour tout événement B , PA (B ) – notée encore P(B |A) – est appelée probabilité de B sachant A.
Démonstration
Montrons que PA définit bien une probabilité sur Ω.
P(A ∩ B )
• Pour tout B ∈ A , A ∩ B ⊂ A donc par croissance de P, ∈ [0, 1].
P(A)
P(A ∩ Ω)
• PA (Ω) = = 1.
P(A)
• Soit (Bn )n∈N une suite d’événements deux à deux incompatibles.
\ +∞
G
+∞
G
+∞
X
+∞ P A Bn P (A ∩ Bn ) P(A ∩ Bn ) +∞ +∞
P(A ∩ Bn ) X
n =0
X
n=0 n=0
G
PA Bn = = = = = PA (Bn )
n=0
P(A) P(A) P(A) n=0
P(A) n=0
Il importe de bien faire la distinction entre PA (B ), probabilité que l’événement B se réalise sachant que A est
réalisé, et P(A ∩ B ), probabilité que les deux événements A et B se réalisent simultanément.
De plus, si l’utilisation de la notation P(B |A) au lieu de PA (B ) peut s’avérer agréable, il s’agit de comprendre
que l’écriture B |A prise isolément n’a aucun sens : on ne conditionne pas un événement par un autre : l’objet
« B |A » est indéfini, ce n’est pas un événement.
Revenons maintenant à quelques résultats déjà abordés en première année. Nous n’en donnerons une dé-
monstration que lorsque celle-ci diffère du fait de l’éventuel caractère infini de l’univers considéré.
Lemme 10.34
Soient A et B deux événements d’un espace probabilisé (Ω, A , P). Alors, si P(A) ̸= 0,
Exemple
Une urne contient 4 boules blanches et 3 boules noires. On tire au hasard successivement et sans remise
quatre boules dans cette urne. Quelle est la probabilité d’obtenir deux boules blanches puis deux noires ?
On munit pour cela Ω = {b1 , b2 , b3 , b4 , n1 , n2 , n3 } de la probabilité uniforme. On note Bi l’événement « obtenir
une boule blanche au i e tirage », Ni l’événement « obtenir une boule noire au i e tirage ».
On calcule P(B1 ∩ B2 ∩ N3 ∩ N4 ) à l’aide de la formule des probabilités composées.
4 1 3 1
P(B1 ) = ; P(B2 |B1 ) = ; P(N3 |B2 ∩ B1 ) = et P(N4 |N3 ∩ B2 ∩ B1 ) =
7 2 5 2
4 1 3 1 3
On trouve ainsi P(B1 ∩ B2 ∩ N3 ∩ N4 ) = × × × = .
7 2 5 2 35
Exercice 9 C
Une puce se déplace par sauts successifs sur les sommets et le centre
de gravité d’un triangle équilatéral. Au temps t = 0, elle est en O . À
chaque instant, elle saute du point où elle se trouve en l’un des autres
points de façon équiprobable. O
A B
(i) Calculer la probabilité qu’elle revienne en O pour la première fois au temps t = n .
(ii) Calculer la probabilité de l’événement « la puce revient en O ». Commenter.
Démonstration
Si (A n )n∈N est un système complet d’événement, quel que soit l’événement B ,
+∞ +∞
G G
B = B ∩Ω= B ∩ An = (B ∩ A n )
n=0 n=0
+∞
G
+∞
X +∞
X
Par σ-additivité, P(B ) = P (B ∩ A n ) = P(B ∩ A n ) = P(B |A n )P(A n ). ■
n=0 n=0 n=0
(i) Pour que cette formule ait toujours un sens, on conviendra que P(B |A n )P(A n ) = 0 lorsque P(A n ) = 0.
(ii) La formule est encore valable lorsque la suite (A n )n∈N décrit un système quasi-complet d’événements.
Cas particulier : si A est un événement, alors (A, A) est un système complet d’événements.
Pour peu que P(A) ∈]0; 1[, pour tout B ∈ A , P(B ) = P(B |A)P(A) + P(B |A)P(A).
Exemple
Une compagnie d’assurance distingue deux types d’assurés : les conducteurs à risque représentent 20% des
assurés et les conducteurs prudents 80%. Les premiers ont une probabilité de 0.5 d’avoir un accident par an
alors que les seconds seulement 0.1. Quelle est la probabilité qu’un nouvel assuré provoque un accident
dans l’année qui suit la signature du contrat ? dans les deux ans suivant la signature du contrat ?
Notons R l’événement « le conducteur est à risque » et A l’évé-
1/2 R ∩A
nement « le conducteur provoque un accident dans l’année ». La
première probabilité que l’on nous demande de calculer est P(A). 1/5 R
1/2 R ∩A
D’après la formule des probabilités totales,
Ω
P(A) = P(A|R )P(R ) + P(A|R )P(R ) 1/10
4/5
R ∩A
1 1 1 4 9 R
= · + · = 9/10
2 5 10 5 50 R ∩A
Rappelons qu’il est important d’accompagner son raisonnement de tout schéma explicatif mais que celui-ci
ne peut constituer une preuve.
Pour la deuxième question, mieux vaut calculer la probabilité pour un nouvel assurant de ne pas provoquer
9 2 9 2
= 2419
d’accident dans les deux premières années, à savoir 50 . On trouve ainsi 1 − 50 2500 ≈ 97%.
Exercice 10
Des boules en nombre infini sont placées successivement et indépendamment dans trois boîtes.
(i) Pour k ⩾ 2, on note A k l’événement « deux des trois boîtes sont non vides pour la première fois lorsqu’on
+∞
X
place la k −ième boule ». Calculer P(A k ) puis P(A k ). Interpréter.
k =2
(ii) Pour i ⩾ 3, on note Bi l’événement « les trois boîtes sont non vides pour la première fois lorsqu’on place
+∞
X
la i −ème boule ». Calculer P(Bi |A k ) pour k ⩾ 2 et i ⩾ 3. En déduire P(Bi ) puis P(Bi ). Interpréter.
i =3
3 – Formule de Bayes
P(B |A k )P(A k )
∀k ∈ N, P(A k |B ) = +∞
X
P(B |A n )P(A n )
n=0
Exemple
Un magasin vend des téléviseurs provenant de deux entreprises (40% pour l’entreprise A et 60% pour
l’entreprise B). 5% des appareils provenant de l’entreprise A présentent un défaut, 3% pour l’entreprise B.
J’achète un appareil défectueux, quelle est la probabilité qu’il provienne de l’entreprise A ?
On note FA l’événement « l’appareil a été fabriqué par l’entreprise A » et D l’événement « il est défectueux ».
Exercice 11
Un magasin possède n caisses. Les clients se répartissent de façon indépendante et équiprobable entre les
λk
différentes caisses. On suppose que la probabilité qu’il y ait k clients dans le magasin est pk = e−λ . La
k!
caisse n°1 a reçu m clients un jour donné. Donner la probabilité qu’il y ait eu dans le magasin n · m clients.
C – Indépendance
Intuitivement, deux événements sont indépendants si la réalisation de l’un n’est pas conditionnée par la
réalisation de l’autre. En clair, si P(B |A) = P(B ) lorsque P(A) > 0. Cette idée se traduit par la définition suivante.
On retiendra que l’indépendance de deux événements est une propriété qui se vérifie par un calcul de pro-
babilités... mais pas toujours ! L’indépendance d’une famille d’événements peut être supposée d’emblée par
l’énoncé, mais c’est alors tout le modèle probabiliste retenu (univers, tribu, probabilité) qui s’adapte à cette
hypothèse préalable. Cela ne va pas sans poser de problème de fond : rien ne nous garantit, par exemple,
l’existence d’un espace probabilisé (Ω, A , P) adapté au jeu de pile ou face, modèle pour lequel l’indépendance
de l’ensemble des lancers devrait être assurée. Cette question non triviale sera momentanément laissée de
côté 2 . Par le calcul ou comme hypothèse préalable, dans tous les cas, on suivra le chemin tracé par l’énoncé !
Deux remarques supplémentaires : n
\
n
Y
• si les événements A 1 , . . . , A n sont mutuellement indépendants, P Ai = P(A i ). En revanche, cette
i =1 i =1
égalité ne garantit pas la mutuelle indépendance. Pour s’en convaincre, considérer le cas où A n = ∅.
• La mutuelle indépendance assure l’indépendance deux à deux des événements : P(A i ∩ A j ) = P(A i )P(A j )
si i ̸= j . La réciproque est à nouveau fausse. Considérer pour cela les événements A = {1, 2}, B = {1, 3} et
C = {1, 4} et la probabilité uniforme P définie sur Ω = {1, 2, 3, 4}.
Proposition 10.39
Si les événements A et B sont indépendants, alors A et B , A et B , A et B le sont également.
Démonstration
Par exemple, P(A ∩ B ) = P(A \ B ) = P(A) − P(A ∩ B ) = P(A) − P(A)P(B ) = P(A)P(B ) par indép. de A et B . ■
Exercice 12
Déterminer la probabilité d’une réunion finie d’événements mutuellement indépendants.
• Lorsque Ω n’est pas dénombrable (exemple du pile ou face), prouver que X est une variable aléatoire n’est
pas toujours chose aisée. À noter : les variables à densité ne figurent pas au programme de MP.
X −1 (A) = {ω ∈ Ω | X (ω) ∈ A} = (X ∈ A)
déf. notation
Proposition 10.41
Soient (Ω, A ) un espace probabilisable et X une variable aléatoire discrète sur cet espace.
Si A ⊂ X (Ω), alors (X ∈ A) est un événement.
Démonstration
[
A est au plus dénombrable et (X ∈ A) = (X = x ) ∈ A comme réunion au plus dénombrable d’événements.
x ∈A
Exercice 13
On lance simultanément deux dés discernables. On note X la somme des valeurs obtenues et Y le maximum
des deux valeurs. Expliciter les événements suivants :
(X > 10) ; (X ⩾ 11) ; (X ⩽ 1) ; (Y = 3) ; (Y ∈ {1, 2})
Théorème 10.42
Soient (Ω, A ) un espace probabilisable et X une variable aléatoire discrète sur cet espace.
Avec les notations précédentes, la famille ((X = x )) x ∈X (Ω) est un système complet d’événements.
Démonstration Ω
Soient ω ∈ Ω et x ∈ X (Ω). Alors, ω ∈ (X = x ) ⇐⇒ X (ω) = x . (X = x0 )
Ainsi, tout élément ω appartient à un, et un seul, événement (X = x ) :
(X = x1 )
G
Ω= (X = x )
x ∈X (Ω)
···
(X = x2 )
La donnée d’une variable X à valeurs dans E confère à X (Ω) une structure d’espace probabilisé (et même par
extension à l’ensemble E ).
Théorème 10.44
Soit X une variable aléatoire discrète sur un espace probabilisé (Ω, A , P). PX est une probabilité sur X (Ω).
Démonstration
• Pour tout A ⊂ X (Ω), PX (A) = P(X ∈ A) ∈ [0, 1].
• PX (X (Ω)) = P(X ∈ X (Ω)) = P(Ω) = 1.
• Pour une suite (A n ) d’événements incompatibles,
G
G
+∞
X +∞
X
PX An = P (X ∈ A n ) = P(X ∈ A n ) = PX (A n )
n ∈N n∈N n=0 n=0
La loi de X est entièrement déterminée par la distribution de probabilités (P(X = x )) x ∈X (Ω) , appelée distribution
de probabilités de X . On appelle support de la loi l’ensemble des éléments x de E tels que P(X = x ) ̸= 0.
Dans le cas fini, la loi d’une variable peut être représentée par un tableau ou par un diagramme en bâtons.
Réciproquement, étant donné une certaine distribution de probabilités (px ) x ∈E définie sur un ensemble E au
plus dénombrable, il est toujours possible de définir une variable aléatoire X de loi donnée par (px ) x ∈E .
Démonstration
Il suffit de considérer l’espace probabilisé (E , P (E ), P) où P est définie par P({x }) = px .
En prenant X = idE , pour tout x ∈ E , P(X = x ) = px . ■
Exemples
1
• Soit X une variable aléatoire suivant une loi de Rademacher, c’est-à-dire que P(X = 1) = P(X = −1) = .
2
Alors, X ∼ −X .
• On considère une pièce équilibrée que l’on lance 10 fois. Le nombre X de piles obtenus et le nombre Y
de faces obtenues suivent la même loi mais ne sont pas identiques.
Terminons ce premier tour d’horizon avec une dernière définition relative au conditionnement.
Exercice 15
On choisit un entier X aléatoirement entre 1 et 2n. Donner la loi de X sachant (X ⩽ n).
Proposition 10.47
Soient (Ω, A ) un espace probabilisable, X une variable aléatoire discrète à valeurs dans E , ainsi qu’une
application f : E → F . Alors, f (X ) est une variable aléatoire discrète.
Démonstration
Posons Y = f (X ). Y (Ω) = f (X (Ω)) est au plus dénombrable et :
[
∀y ∈ Y (Ω), (Y = y ) = (X = x ) ∈ A
x ∈X (Ω)
f (x )=y
Démonstration
Soit A ⊂ f (X (Ω)). Alors,
G G G
(f (X ) ∈ A) = (f (X ) ∈ A) ∩ Ω = (f (X ) ∈ A) ∩ (X = x ) = (f (x ) ∈ A) ∩ (X = x ) = (X = x )
x ∈X (Ω) x ∈X (Ω) x ∈X (Ω)
f (x )∈A)
Notons enfin que les considérations précédentes s’étendent aux fonctions de plusieurs variables en considérant
des n -uplets de variables aléatoires. En effet, si pour tout i ∈ ⟦1, n ⟧, X i est une variable discrète à valeurs dans
un ensemble Ei , on vérifie aisément que X = (X 1 , . . . , X n ) est elle-même une variable discrète à valeurs dans
E1 × · · · × En , appelée vecteur aléatoire. De ce fait, la somme et le produit de variables aléatoires discrètes réelles
sont encore des variables aléatoires. Ainsi, X 2 , X + Y , X Y ou encore min(X , Y ) sont des variables aléatoires.
La loi d’une somme de n variables aléatoires s’exprime facilement :
X
P(X 1 + · · · + X n = x ) = P(X 1 = x1 , . . . , X n = xn )
(x1 ,...,xn )∈Rn
x1 +···+xn =x
En revanche, le calcul peut s’avérer délicat sans autre hypothèse, comme l’indépendance des variables aléatoires
qui fera l’objet de la section suivante.
Exercice 16
Déterminer la loi de X 2 où X est une variable aléatoire dont la table de probabilité est :
xi −2 −1 0 1 2
Exercice 17
Soit X une variable aléatoire discrète sur l’espace probabilisé (Ω, A , P) telle que X (Ω) = N∗ et,
α
∀k ∈ N∗ , P(X = k ) =
k (k + 1)(k + 2)
1. Déterminer la valeur de α.
2. Montrer que Y = X + 1 est une variable aléatoire réelle discrète et déterminer sa loi.
3. Montrer que Z = X 2 − 4X + 4 est une variable aléatoire réelle discrète et déterminer sa loi.
D – Lois usuelles
Toutes les lois qui suivent sont directement définies à partir de la distribution de probabilités associée. X
désignera une variable aléatoire discrète définie sur (Ω, A , P) et à valeurs dans E .
1 – Loi certaine
2 – Loi uniforme
1
X (Ω) = E et ∀x ∈ E , P(X = x ) =
|E |
Notation : X ∼ U (E ).
P(X = k )
boules blanches. k
a
Si on note X le nombre de boules noires tirées, X ∼ B a +b . −1 0 1 2
LOI DE PROBABILITÉ POUR p = 2/3
Exemple fondamental : si A est un événement, 1A ∼ B(P(A)).
4 – Loi binomiale
Notation : X ∼ B(n , p ).
Une loi binomiale de paramètres (n , p ) apparaît lorsque l’on compte le nombre de succès lors de la répétition
de n expériences aléatoires indépendantes conduisant à une situation de succès (de probabilité p ) ou d’échec
(de probabilité q = 1 − p ). En notant X le nombre de succès, X ∼ B(n, p ).
Démonstration
Soient n ∈ N∗ et p ∈ [0, 1]. X (Ω) = ⟦0, n ⟧. Considérons une série de n lancers de pièce qui amène pile avec une
probabilité p ∈]0, 1] et face avec une probabilité 1 − p . Notons A i l’événement « pile apparaît au i e lancer ».
Pour tout k ∈ ⟦1, n⟧, en notant Pk (⟦1, n ⟧) l’ensemble des parties à k éléments de ⟦1, n ⟧.
G \ \
(X = k ) = Ai ∩ Ai
I ∈Pk (⟦1,n⟧) i ∈I /I
i∈
X \ \ X
k n−k n k n−k
Ainsi, par indépendance, P(X = k ) = P Ai ∩ Ai = p q = p q . ■
/I
k
I ∈Pk (⟦1,n⟧) i ∈I i∈ I ∈Pk (⟦1,n ⟧)
On se débarrassera de ce formalisme inutile en constatant dans la section suivante que la somme de n variables
indépendantes suivant toutes des lois de Bernoulli de paramètre p suit une loi binomiale de paramètre (n , p ).
Situations types :
• Lancers successifs d’une pièce éventuellement truquée ;
• Tirages successifs avec remise de n boules dans une urne avec a boules noires et b boules blanches.
a
Si on note X le nombre de boules noires tirées, X ∼ B n , a +b .
P(X = k ) P(X = k )
1/2 1/2
1/4 1/4
k k
1 2 3 4 5 6 1 2 3 4 5 6
REPRÉSENTATION D’UNE LOI BINOMIALE DE REPRÉSENTATION D’UNE LOI BINOMIALE DE
1 1
PARAMÈTRES 6, 2 PARAMÈTRES 6, 3
5 – Loi géométrique
Notation : X ∼ G (p ).
Une loi géométrique apparaît lorsque l’on s’intéresse à une succession d’épreuves de Bernoulli indépendantes
jusqu’à obtenir un premier succès. On parle alors de temps d’attente du premier succès.
Démonstration
Considérons une série infinie de lancers de pièce qui amène pile avec une probabilité p ∈]0, 1] et face
avec une probabilité 1 − p . Notons A k l’événement « pile apparaît au k e lancer ». Par indépendance des
événements,
Situations types :
• Premier pile obtenu au cours de lancers successifs d’une pièce
1/4
truquée ;
• Tirages successifs avec remise de boules dans une urne avec des
boules noires et blanches jusqu’à obtenir une boule noire.
n
1 2 3 4 5 6 7 8 ···
REPRÉSENTATION D’UNE LOI GÉOMÉTRIQUE
DE PARAMÈTRE 1/3
Nous avons jusqu’à présent interprété une loi géométrique comme le temps d’attente du 1er succès dans une
suite d’épreuves de Bernoulli indépendantes. Si un observateur commence son observation au temps n et qu’il
constate que l’événement ne s’est pas encore produit, quelle est la probabilité que l’événement se produise
au temps n + k ? Elle est en fait égale à la probabilité que l’événement se produise au temps k , comme si rien
ne s’était produit jusque là. La loi géométrique est qualifiée de « loi sans mémoire » ; c’est même la seule loi
discrète vérifiant cette propriété.
Démonstration n n
X X
Remarquons tout d’abord que si X ∼ G (p ), P(X > n ) = 1 − P(X = k ) = 1 − p q k −1 = q n . L’interprétation
k =1 k =1
est simple : la réalisation de l’événement à un temps supérieur à n nécessite n premiers échecs consécutifs.
P(X > n + k ) q n+k
=⇒ Si X ∼ G (p ) avec p ∈]0, 1[, pour tout (k , n) ∈ N2 , P(X > n + k |X > n) = = = P(X > k ).
P(X > n ) qn
⇐= Supposons maintenant que pour tout (k , n ) ∈ N, P(X > n + k |X > n ) = P(X > k ).
Ainsi, P(X > n + 1) = P(X > n + 1|X > n )P(X > n) = P(X > 1)P(X > n ).
En posant q = P(X > 1), on voit que (P(X > n ))n∈N∗ est une suite géométrique de raison q .
Ainsi, P(X = n ) = P(X ⩽ n ) − P(X ⩽ n − 1) = P(X > n − 1) − P(X > n ) = q n−1 − q n = p q n−1 ; X ∼ G (p ). ■
6 – Loi de Poisson
Contrairement aux lois précédentes, il s’avère difficile de donner un modèle simple qui conduise à une loi
de Poisson. Celle-ci apparaît plus naturellement comme une loi limite. Cette loi a été introduite en 1838 par
Poisson et sert souvent à modéliser l’apparition d’événements rares.
Définition 10.55 : Loi de Poisson
On dit que la variable aléatoire X suit la loi de Poisson de paramètre λ ∈ R∗+ si :
λn −λ
X (Ω) = N et ∀n ∈ N, P(X = n ) = e
n!
Notation : X ∼ P (λ).
Théorème 10.56 : Approximation d’une loi binomiale par une loi de Poisson
Si pour tout n ∈ N∗ , X n ∼ B(n , pn ) et si lim n pn = λ, alors,
n→+∞
λk
∀k ∈ N, P(X n = k ) −−−−→ e−λ
n→+∞ k!
Démonstration
n (n − 1) × · · · × (n − k + 1) k
n k
Pour tout k ∈ N, P(X n = k ) = pn (1 − pn )n−k = pn (1 − pn )n−k .
k k!
(n pn )k (n−k ) ln(1−pn )
Donc P(X n = k ) ∼ e . Or (n − k ) ln(1 − pn ) ∼ −n pn puisque pn −−−−→ 0.
n →+∞ k! n→+∞ n→+∞
λk
Ainsi, P(X n = k ) −−−−→ e−λ . ■
n→+∞ k!
Ce résultat affirme que si l’on réalise un grand nombre d’épreuves de Bernoulli indépendantes de paramètre
vérifiant pn ∼ λ/n , le nombre de succès suit approximativement une loi de Poisson de paramètre λ. La
n →+∞
qualité de l’approximation reste en revanche à quantifier.
1 import numpy as np
2 import m a t p l o t l i b . pyplot as p l t 0.25
3 loi binomiale
4
5
p = 0.1
n = 30
loi de Poisson
6 0.20
7 def binom ( n , k ) :
8 r e t u r n np . math . f a c t o r i a l ( n ) / ( np . math . f a c t o r i a l ( k ) *np . math .
f a c t o r i a l ( n−k ) )
9 0.15
10 def B ( k ) :
P(X=k)
Démonstration
• X (Ω) et Y (Ω) sont au plus dénombrables. Il en va de même pour (X , Y )(Ω) ⊂ X (Ω) × Y (Ω).
• Pour tout (x , y ) ∈ (X , Y )(Ω), (X , Y ) = (x , y ) = (X = x ) ∩ (Y = y ) ∈ A . ■
Exercice 18
On lance deux dés. On note X le maximum des valeurs obtenues, Y la valeur du deuxième dé.
Que vaut X (Ω) ? Y (Ω) ? (X , Y )(Ω) ?
Les lois marginales se déduisent de la loi conjointe (la réciproque est fausse !). En effet, d’après la formule des
probabilités totales appliquée aux systèmes complets d’événements ((X = x )) x ∈X (Ω) et (Y = y ) y ∈Y (Ω) ,
X
P (X = x ) = P (X = x ) ∩ Y = y
∀x ∈ X (Ω),
y ∈Y (Ω)
X
P (X = x ) ∩ Y = y
∀y ∈ Y (Ω), P Y =y =
x ∈X (Ω)
Dans le cas fini, la loi conjointe peut être représentée par une table de probabilités. Le résultat précédent
exprime l’idée qu’il suffit de sommer les éléments le long des lignes et des colonnes pour retrouver les lois
marginales.
Exemple
On considère une urne avec 4 boules B1 , B2 , B3 , B4 et les tirages de 2 boules successifs avec remise. On
note X 1 le numéro de la boule au 1er tirage et X 2 le numéro de la boule au 2ème tirage. On pose enfin
Y = max(X 1 , X 2 ) et Z = (X 1 , Y ). Quelle est la loi conjointe de X 1 et Y ? X 1 (Ω) = Y (Ω) = ⟦1, 4⟧ et de plus,
1
X 1 /Y 1 2 3 4 ∀k ∈ {1, . . . , 4}, P(X 1 = k ) =
1 1 1 1 4
1 16 16 16 16
1 1 1 1 3
2 0 8 16 16 P(Y = 1) = ; P(Y = 2) = ;
3 1 16 16
3 0 0 16 16
5 7
4 0 0 0 1
4 P(Y = 3) = ; P(Y = 4) = .
16 16
Exemple
Une urne contient deux boules B et n ∈ N∗ boules N . On tire toutes les boules une par une.
On note X le rang du tirage de la 1e boule blanche tirée, Y celui de la 2ème .
Quelle est la loi du couple (X , Y ) ? la loi de X ? la loi de Y ? la loi de Y − X ?
• Ω est l’ensemble des arrangements des n + 2 boules parmi n + 2 et X (Ω) = ⟦1, n + 1⟧, Y (Ω) = ⟦2, n + 2⟧.
2
• (X = i ) ∩ (Y = j ) = ∅ pour i ⩾ j , et pour i < j , P((X = i ) ∩ (Y = j )) = .
(n + 1)(n + 2)
• On en tire facilement les lois de X et Y :
n+2 n+2
X X 2(n + 2 − i )
P (X = i ) = P((X = i ) ∩ (Y = j )) = P((X = i ) ∩ (Y = j )) =
j =2 j =i +1
(n + 1)(n + 2)
n+1 j −1
X X 2( j − 1)
P Y =j = P((X = i ) ∩ (Y = j )) = P((X = i ) ∩ (Y = j )) =
i =1 i =1
(n + 1)(n + 2)
Exercice 19
Dans une succession de pile ou face pour laquelle la probabilité d’obtenir pile est p ∈]0, 1[ et d’obtenir face
est q = 1 − p , on note X le rang d’apparition du premier pile et Y celui du second.
Déterminer la loi conjointe de (X , Y ) puis les lois marginales.
Démonstration
Supposons que pour tous x ∈ X (Ω) et y ∈ Y (Ω), P X = x , Y = y = P (X = x ) × P Y = y .
Soit (A, B ) ⊂ X (Ω) × Y (Ω). Alors, par sommabilité,
X X X
P(X ∈ A) · P(Y ∈ B ) = P(X = x ) · P(Y = y ) = P(X = x ) · P(Y = y )
x ∈A y ∈B (x ,y )∈A×B
!
X G
= P(X = x , Y = y ) = P (X = x , Y = y ) = P (X ∈ A, Y ∈ B )
ind.
(x ,y )∈A×B (x ,y )∈A×B
En cas d’indépendance, on retrouve la loi conjointe à partir des lois marginales. Plus précisément, le résultat
précédent montre que la distribution de probabilités associée à (X , Y ) est le produit des distributions de
probabilités des variables X et Y .
Corollaire 10.60
Soient X et Y deux variables aléatoires sur (Ω, A , P) et deux applications f : X (Ω) → E et g : Y (Ω) → F .
Si X et Y sont indépendantes, alors f (X ) et g (Y ) sont indépendantes.
Démonstration
Soient e ∈ E et f ∈ F . Alors, P f (X ) = e , g (Y ) = f = P X ∈ f −1 ({e }), Y ∈ g −1 ({ f } et donc, par indépen-
dance, P f (X ) = e , g (Y ) = f = P X ∈ f −1 ({e }) · P Y ∈ g −1 ({ f } = P(X = e ) · P(Y = f ). ■
Exemple
Si X et Y sont indépendantes, alors X 2 et Y 2 le sont également.
Démonstration
Soit (A 1 , . . . , A n ) ⊂ X 1 (Ω) × · · · × X n (Ω). À l’image de l’indépendance de deux variables, par sommabilité :
n
Y n X
Y X n
Y
P(X i ∈ A i ) = P(X i = xi ) = P(X i = xi )
i =1 i =1 xi ∈A i (x1 ,...,xn )∈A 1 ×···×A n i =1
X
= P(X 1 = x1 , . . . , X n = xn ) = P(X 1 ∈ A 1 , . . . , X n ∈ A n )
ind.
(x1 ,...,xn )∈A 1 ×···×A n
\ Y
Prouvons maintenant que toute partie I de ⟦1, n ⟧, P (X i ∈ A i ) = P(X i ∈ A i ).
i ∈I i ∈I
On prendra garde au fait que si la mutuelle indépendance implique l’indépendance deux à deux, la réciproque
est, comme pour les événements, fausse !
Exemple
Les événements F1 , . . . , Fn sont indépendants ssi les indicatrices 1F1 , . . . , 1Fn sont des variables indépendantes.
Énonçons un dernier résultat qui rendra de précieux services et qui se fonde sur une intuition peu originale : si
X , Y et Z sont mutuellement indépendants, il en va de même pour X + Y et Z .
Démonstration
On montre que les variables aléatoires X = (X 1 , . . . , X m ) et Y = (X m +1 , . . . , X n ) sont indépendantes. ■
Nous serons couramment amenés à déterminer la loi d’une somme de n variables aléatoires réelles :
X
P(X 1 + · · · + X n = x ) = P(X 1 = x1 , . . . , X n = xn )
(x1 ,...,xn )∈Rn
x1 +···+xn =x
Démonstration
Donnons une preuve non combinatoire de ce résultat. Posons pour cela P = (X + 1)n et Q = (X + 1)m .
n +m
n +m
• Le terme de degré p du polynôme P Q = (X + 1) a pour expression X p.
p
X n m
p
i+j
X n m
• En utilisant la formule du produit de deux polynômes, X = X p.
i + j =p
i j k =0
k p − k
D’où l’égalité par identification. ■
Démonstration
(i) Soient X ∼ B(n1 , p ) et Y ∼ B(n2 , p ) indépendantes. (X + Y )(Ω) = ⟦0, n1 + n2 ⟧ et pour k ∈ ⟦0, n1 + n2 ⟧,
k k
n1 + n2 k n1 +n2 −k
X X n1 n2 k n1 +n2 +k
P(X + Y = k ) = P(X = i )P(Y = k − i ) = p q = p q
i =0 i =0
i k −i k
Ainsi, la somme de n variables de Bernoulli indépendantes de même paramètre suit une loi binomiale.
Théorème 10.65 : Somme de variables indépendantes suivant une loi de Poisson (HP)
On suppose toutes les variables aléatoires définies sur un même espace probabilisé (Ω, A , P).
(i) Si X ∼ P (λ) et Y ∼ P (µ) sont indépendantes, alors X + Y ∼ P (λ + µ).
(ii) Si X 1 ∼ P (λ1 ), . . . , X n ∼ P (λn ) sont indépendantes, alors X 1 + · · · + X n ∼ P (λ1 + · · · + λn ).
Démonstration
Supposons X ∼ P (λ) et Y ∼ P (µ) indépendantes. Alors, (X + Y )(Ω) = N et pour tout n ∈ N,
n n n
−λ λ −µ µ (λ + µ)n
n −i
X X i
e−(λ+µ) X n i n−i
P(X + Y = n) = P(X = i )P(Y = n − i ) = e e = λµ = e−(λ+µ)
i =0 i =0
i! (n − i )! n ! i =0 i n!
Ce théorème valide, dans un énoncé, toute formulation de la forme : « On considère une suite (X n )n∈N de
variables aléatoires indépendantes et identiquement distribuées, de loi [...] ».
T = min n ∈ N∗ ∪ {+∞} | X n = 1
• T est bien une variable aléatoire. Il suffit de vérifier que T (Ω) est dénombrable et que pour tout n ∈ N∗ ,
n−1
\ +∞
\
(T = n) = (X n = 1) ∩ (X k = 0) ∈ A et (T = +∞) = (X k = 0) ∈ A .
k =1 k =1
• Pour tout n ∈ N , P(T = n ) = P(X 1 = · · · = X n−1 = 0, X n = 1) = q n −1 p par indépendance.
∗
+∞
X
• De plus, P(T = +∞) = 1 − P(T ∈ N∗ ) = 1 − P(T = k ) = 0. Concluons : T ∼ G (p ).
k =1