Introduction aux Probabilités et Espaces Probabilisables
Introduction aux Probabilités et Espaces Probabilisables
chapitre
Probabilités
⋆ Un ensemble E est dit fini s’il existe un entier n et une bijection de E dans J1, nK.
⋆ Un ensemble E est dit (infini) dénombrable s’il existe une bijection de E dans N.
⋆ Un ensemble E est dit (infini) non dénombrable s’il n’existe pas de bijection de E dans N.
Exemples 6.1.
⋆ J1, nK et J0, n − 1K sont finis de cardinal n
⋆ 2N , Z, N × N, Q = Z × N∗ sont dénombrables.
— la fonction f : N −→ 2N, n 7−→ 2n est bijective.
(−1)n n
— la fonction f : N −→ Z, n 7−→ est bijective.
2
⋆ Par contre R et C ne sont pas dénombrables
Remarque : Le « cardinal » de N est noté ℵ0 . Celui de R et de C est 2ℵ0 , appelé la puissance du continu.
Exercice 6.1
1. On pose pour tout n ∈ N, An = J0, nK. Donner
S T S T
An , An , An et An .
n⩽10 n⩽10 n∈N n∈N
∞
+T
2. On pose pour tout n ⩾ 1, An = − n1 , n1 . Donner
An .
n=1
∞
+S
3. On pose pour tout n ⩾ 1, An = − 1 + n1 , 1 − n1 . Donner
An .
n=1
Sol :
An = N et
S T S T
1. An = J0, 10K, An = {0}, An = {0}.
n⩽10 n⩽10 n∈N n∈N
∞
+T
2. An = {0}.
n=1
∞
+S
3. An =] − 1, 1[.
n=1
Une expérience est dite aléatoire lorsqu’elle a plusieurs issues (ou résultats) possibles, mais qu’on ne
peut pas prévoir laquelle de ces issues sera réalisée.
L’ensemble des résultats possibles d’une expérience aléatoire est appelé univers (ou univers des
possibles). Il est noté en général Ω. Les éléments de l’univers Ω sont appelés les possibles ou les
éventualités, et sont notés en général ω.
L’année dernière vous n’avez travaillé qu’avec des univers finis, c’est-à-dire que vos expériences n’avaient qu’un
nombre fini d’issues. Par exemple pour le résultat du lancer d’un dé on a Ω = J1, 6K. Mais regardons les exemples
suivants :
Exemples 6.2.
⋆ Expérience 1 : On lance une pièce de monnaie jusqu’à obtenir pile. Pour tout entier naturel non nul k,
on note ωk le k-uplet (F , F , · · · , F , P ), c’est-à-dire le résultat « on a obtenu k − 1 face(s) avant d’obtenir
le premier pile ». On note ω0 le résultat « on n’obtient que des faces ». L’univers de cette expérience est
alors {ωk , k ∈ N}, c’est un ensemble dénombrable.
⋆ Expérience 2 : On lance une pièce de monnaie indéfiniment. L’univers de cette expérience est (avec des
notations évidentes) {P , F }N , c’est-à-dire l’ensemble des suites de piles et faces. C’est un ensemble infini
non dénombrable.
⋆ Expérience 3 : On note le retard d’un train donné en minutes. On peut prendre [0, 50] comme univers de
cette expérience. On peut prendre aussi R+ si on est plus pessimiste. L’univers de cette expérience est
infini et non dénombrable.
Dans le cas des univers finis on avait défini la notion d’événement comme un sous ensemble de Ω, c’est-à-dire
comme un élément de P (Ω). Dans le cas d’un univers Ω infini non dénombrable, des difficultés techniques
(profondes et assez compliquées) empêchent de considérer que toutes les parties de Ω sont des événements : on
ne peut donc pas considérer un espace probabilisable (Ω, P (Ω)) comme on le faisait dans le cas des univers finis.
Cela est dû au fait que P (Ω) est « trop grand ».
C’est la raison pour laquelle il s’avère nécessaire, pour aborder des problèmes avec des univers infinis, de
reconsidérer la notion d’espace probabilisable.
Soit Ω un ensemble. On appelle tribu (ou σ-algèbre) sur Ω une partie T de P (Ω) vérifiant les propriétés
suivantes :
⋆ Ω∈T
⋆ si A ∈ T , alors A ∈ T (stabilité par passage au complémentaire)
S
⋆ si (An )n∈N est une famille d’éléments de T , alors An ∈ T (stabilité par réunion dénombrable)
n∈N
Dans ce cas, les éléments de T sont appelés des événements et le couple (Ω, T ) est appelé un espace
probabilisable.
P ROPRIÉTÉ 6.1
Soit T une tribu sur Ω. Alors :
⋆ ∅∈T ;
T
⋆ si (An )n∈N est une famille d’éléments de T , alors An ∈ T (stabilité par intersection dénombrable).
n∈N
Démonstration :
⋆ Comme Ω ∈ T , on a aussi Ω ∈ T par stabilité par passage au complémentaire. Ainsi, ∅ ∈ T .
⋆ D’après les lois de Morgan, on a :
\ [
An = An .
n∈N n∈N
S S
Tous les An sont dans T donc An aussi, d’où An aussi, puis, par passage au complémentaire, An .
n∈N n∈N
□
Remarques :
⋆ Finalement avec cette définition on peut faire avec les événements tout ce qu’on peut espérer pour faire
des probabilités (réunion, intersection, complémentaire)
⋆ Lorsque l’univers sera fini ou dénombrable on prendra le plus souvent (Ω, P (Ω)) comme espace probabili-
sable. Ce ne sera pas le cas quand l’univers sera non dénombrable.
⋆ Je vous rassure aucune question sur les tribus ne vous sera proposée dans une épreuve de mathématiques.
Retenez qu’on crée un cadre pour que tout se passe pour le mieux.
Définition – Vocabulaire 1
Définition – Vocabulaire 2
Soit (Ω, T ) un espace probabilisable. Soit (Ai )i∈I une famille finie ou dénombrable d’événements.
S
⋆ L’ensemble Ai correspond à l’événement « l’un au moins des événements Ai , est réalisé ».
i∈I
T
⋆ L’ensemble Ai correspond à l’événement « tous les événements Ai , sont réalisés ».
i∈I
⋆ On dit que ces événements sont deux à deux incompatibles si ∀i ̸= j, Ai ∩ Aj = ∅.
⋆ On dit que (Ai )i∈I forme un système complet d’événements si et seulement si :
▷ Pour tous i, j de I avec i ̸= j, Ai ∩ Aj = ∅ (les événements sont deux à deux incompatibles)
Ai = Ω
S
▷
i∈I
Exemple 6.3. Reprenons l’expérience 1 des exemples 6.2 page 3. Voici quelques exemples d’événements associés à
cette expérience :
⋆ « pile apparait avant le quatrième lancer » est l’ensemble {ω1 , ω2 , ω3 }
⋆ « on n’obtient jamais pile » est l’ensemble {ω0 }.
S
⋆ « pile apparait au bout d’un nombre pair de lancers » est l’ensemble {ω2i }
i∈N∗
Exercice 6.2 Considérons l’expérience 2 des exemples 6.2 où on lance une infinité de fois une pièce. Pour
tout n ∈ N∗ , on note An l’événement « obtenir un pile au n-ième lancer ». Expliciter les événements suivants :
1. « obtenir pile aux lancers 2, 3 et 5 »
2. « obtenir pile au moins une fois au cours des 10 premiers lancers »
3. « obtenir au moins une fois un pile »
4. « obtenir pile à chaque lancer »
5. « on obtient au moins une fois deux piles d’affilée »
6. a. « on n’obtient que des faces à partir d’un certain rang »
∞
+T
+∞
S
b. En déduire ce que signifie Ak
i=1 k =i
Sol :
1. « obtenir pile aux lancers 2, 3 et 5 » : A2 ∩ A3 ∩ A5
10
S
2. « obtenir pile au moins une fois au cours des 10 premiers lancers » : Ak
k =1
∞
+S
3. « obtenir au moins une fois un pile » : Ak
k =1
∞
+T
4. « obtenir pile à chaque lancer » : Ak
k =1
∞
+S
5. « on obtient au moins une fois deux piles d’affilée » : ( Ak ∩ Ak + 1 )
k =1
∞ +T
+S
∞
6. a. « on n’obtient que des faces à partir d’un certain rang » : Ak
i=1 k =i
∞ +S
+T
∞
b. Ak signifie qu’ « après n’importe quel rang on obtient au moins un pile »,
i=1 k =i
autrement dit « on obtient pile une infinité de fois »
II Espaces probabilisés
Définition – Probabilité
Soit (Ω, T ) un espace probabilisable. On appelle probabilité sur (Ω, T ) toute application P de T dans
[0, 1] vérifiant :
⋆ P( Ω ) = 1
⋆ Pour toute famille finie ou dénombrable (Ai )i∈I d’événements deux à deux incompatibles on a :
!
[ X
P Ai = P ( Ai )
i∈I i∈I
Le triplet (Ω, T , P) s’appelle alors un espace probabilisé et pour tout événement A, le réel P(A) est
la probabilité de l’événement A.
Remarques :
⋆ La seconde propriété s’appelle l’axiome de σ-additivité de la probabilité P.
P
⋆ Notons que la série P(An ) est convergente. En effet, c’est une série à termes positifs, donc il suffit de
n∈N
montrer que ses sommes partielles sont majorées. Or, pour tout m ∈ N, on a (comme les Ai sont deux à
deux incompatibles) :
m m
!
X [
P ( An ) = P An ⩽ 1.
n=0 n=0
P ROPRIÉTÉ 6.2
Démonstration :
(1) A et A sont incompatibles et A ∪ A = Ω donc :
(2) Si A ⊂ B alors B = A ∪ (B \ A) qui sont incompatibles donc P(B ) = P(A) + P(B \ A) et comme P est
une probabilité P(B \ A) ⩾ 0 et donc P(B ) ⩾ P(A).
(3) A ∪ B = A ∪ (B \ A) comme ces deux événement sont incompatibles on a : P(A ∪ B ) = P(A) + P(B \ A).
De plus B = (B \ A) ∪ (A ∪ B ) et ces deux événement sont incompatibles donc P(B ) = P(B \ A) + P(A ∪
B ). On déduit de ces deux égalités que P(A ∪ B ) = P(A) + P(B ) − P(A ∩ B ).
□
Exercice 6.3 On reprend l’expérience 1 des exemples 6.2. On suppose que la pièce est équilibrée et on
s’intéresse à l’apparition du premier pile.
1. Déterminer P({ω1 }), P({ω2 }), P({ωk })
2. Déterminer la probabilité d’avoir au moins une fois pile.
3. Déterminer P({ω0 }) la probabilité de n’avoir que des faces.
4. Déterminer la probabilité pour que le premier pile apparaisse au bout d’un nombre pair de lancers.
Sol :
1. P({ω1 }) = 12 , P({ω2 }) = 14 , P({ωk }) = 1
2k
car les lancers sont indépendants.
2.
+ ∞ +∞ +∞
!
[ X X 1 1 1
P(« au moins 1 pile ») = P {ωk } = P({ωk }) = k
= × 1 =1
incomp. 2 2 1− 2
k =1 k =1 k =1
Comme on vient de le voir il est possible d’avoir un événement A tel que P(A) = 1 sans que A soit l’événement
certain Ω. De même il est possible d’avoir un événement A tel que P(A) = 0 sans que A soit l’événement
impossible ∅. D’où la définition qui suit :
Ne pas confondre événement négligeable / événement impossible et événement presque sûr / événement
certain. Un événement négligeable peut se réaliser, et un événement presque sûr peut ne pas se réaliser.
Exercice 6.4 On reprend la même expérience que dans l’exercice ci-dessus, et on rappelle que le jeu s’arrête
dès qu’on obtient pile. Montrer que le jeu s’arrête presque sûrement.
Sol :
n
X
∀i ∈ J1, nK, pi ⩾ 0 et pi = 1
i=1
Quand elle existe cette probabilité est unique et on a pour tout événement A :
X
P(A) = P {ωi }
i / ωi ∈A
Ainsi, dans le cas fini une probabilité est entièrement déterminée par la connaissance des probabilités des
événements élémentaires.
Démonstration : (⇒) Si la probabilité P existe alors ∀i ∈ J1, nK, P {ωi } = pi ⩾ 0 par définition d’une probabilité.
n
X n
X
P {ωi } = P(Ω) = 1.
De plus ({ω1 }, . . . , {ωn }) étant un système complet d’événements on a pi =
i=1 i=1
(⇐) Existence. Soit P l’application définie sur P (Ω) à valeurs dans R définie par
X
P : P (Ω) −→ R, A 7−→ P(A) = pi
i / ωi ∈A
Exercice 6.5 On lance un dé truqué. On suppose que la probabilité d’obtenir k ∈ J1, 6K est proportionnelle
à k. Déterminer la probabilité d’obtenir un entier pair.
Sol : Notons {k} l’événement « obtenir la face k » et λ = P({1}) alors ∀k ∈ J1, 6K, P({k}) = kλ.
Et comme P est une probabilité il faut que
6
X 6
X
P({k}) = 1 ⇐⇒ λk = 1 ⇐⇒ 21λ = 1
k =1 k =1
k
Donc ∀k ∈ J1, 6K, P({k}) = 21 .
Dans ce cas, on dit qu’il y a équiprobabilité et P est appelée la probabilité uniforme sur Ω.
. . ./. . .
1 1
On a alors ∀i ∈ J1, nK,
P {ωi } = = .
n Card(Ω)
Card(A) nombre de cas favorables à A
De plus pour tout événement A on a P(A) = = .
Card(Ω) nombre de cas total
Soient Ω = {ωn , n ∈ N} un univers infini dénombrable et (pn )n∈N une suite de nombres réels.
Il existe une probabilité P sur (Ω, P (Ω)) vérifiant ∀i ∈ N, P {ωi } = pi si et seulement si
X +∞
X
∀i ∈ N, pi ⩾ 0, la série pn converge et pn = 1
n=0
Quand elle existe cette probabilité est unique et on a pour tout événement A :
X
P(A) = P {ωi }
n∈N / ωn ∈A
Une conséquence de ce théorème est qu’on ne peut pas construire une probabilité uniforme sur un univers
infini dénombrable. Et effet si pour n ∈ N, pn = p ̸= 0 alors
P
pn ne peut pas converger (divergence grossière)
Exercice 6.6 Soit λ ∈ R+ fixé. Soit (N, P (N)) un espace probabilisable. Montrer qu’il existe α ∈ R et
une probabilité P définie sur P (N) tels que
λk
∀k ∈ N, P({k}) = α
k!
k
α λk! qui
P
Sol : Pour que P soit une probabilité nécessairement α ⩾ 0. De plus on doit avoir
converge et de somme égale à 1. On reconnait là une série exponentielle et on a :
+∞
X λk
α = 1 ⇐⇒ αeλ = 1 ⇐⇒ α = e−λ
k!
k =0
X +∞
X
la série P ( An ) converge et P ( An ) = 1
n∈N n=0
Démonstration : !
n
X n
[
(1) P(Ak ) = P Ak = P( Ω ) = 1
incomp.
k =1 k =1
(2) La série est convergente d’après la remarque page 5 et
+∞ + ∞
!
X [
P(Ak ) = P Ak = P( Ω ) = 1
incomp.
k =0 k =0
Dans le cas où Ω est infini non dénombrable, la situation est plus délicate. On ne va pas pouvoir définir la
probabilité « point par point », mais uniquement sur des des parties de Ω.
Par exemple, si on prend un élément au hasard dans [0, 1] alors la probabilité de réaliser un événement
élémentaire vaut 0. Mais la probabilité de prendre un élément dans un intervalle donné va être proportionnelle à
sa longueur. Ainsi, tout événement est constitué de résultats qui sont tous de probabilité nulle sans pour autant
que la probabilité totale de l’événement soit forcément nulle.
3.1 Définition
T HÉORÈME 6.7
Soit Ω, T , P un espace probabilisé. Soit A un événement de probabilité non nulle . Pour tout événement
B, on pose :
P(A ∩ B )
PA ( B ) = .
P(A)
Alors l’application PA : T −→ [0, 1], B 7−→ PA (B ) est une probabilité sur (Ω, T ).
Démonstration : □
Remarque : La probabilité PA (B ) est à bien distinguer de la probabilité P(A ∩ B ). En effet, dans le calcul
de PA (B ), on suppose que l’événement A est réalisé, et on cherche alors la probabilité de B. Dans le calcul de
P(A ∩ B ), on cherche la probabilité de l’événement « A et B », l’événement A n’étant a priori pas réalisé.
C OROLLAIRE 6.8
Soient A, B et C trois événements tels que P(A) ̸= 0.
(1) PA (B ) = 1 − PA (B )
(2) Si B ⊂ C, alors PA (B ) ⩽ PA (C )
(3) PA (B ∪ C ) = PA (B ) + PA (C ) − PA (B ∩ C )
Exercice 6.7 Parmi les familles françaises ayant exactement deux enfants, on en considère une au hasard.
1. Sachant que l’aîné est une fille, quelle est la probabilité que les deux enfants soient des filles ?
2. Sachant qu’il y a au moins un garçon, quelle est la probabilité que les deux enfants soient des garçons ?
Sol :
1
1. P« ainé fille » (« deux filles ») = P(« deuxième fille ») = 2
2. Ici Ω = {(G, G), (G, F ), (F , G), (F , F )} on prend comme tribu P (Ω) et on muni (Ω, P (Ω))
de la probabilité uniforme, chacun des couples d’enfants ayant la même probabilité d’appa-
rition. Alors :
P(« au moins 1 garçon » ∩ « 2 garçons » )
P« au moins 1 garçon » (« 2 garçons ») =
P(« au moins 1 garçon »)
P(« 2 garçons » ) 1/4 1
= = =
P(« au moins 1 garçon ») 3/4 3
Démonstration : Notons que l’hypothèse P (A1 ∩ · · · ∩ An−1 ) ̸= 0 assure que P (A1 ∩ · · · ∩ Ai ) ̸= 0 pour tout
i ∈ J1, n − 1K car A1 ∩ · · · ∩ An−1 ⊂ A1 ∩ · · · ∩ Ai .
Cela dit le produit du membre de droite est télescopique :
Remarques :
⋆ Toutes les probabilités conditionnelles existent car : ∀i ∈ J1, n − 1K,
Exercice 6.8 On considère une urne contenant quatre boules blanches et trois boules noires. On tire trois
boules de l’urne successivement et sans remise. Quelle est la probabilité d’obtenir 2 boules noires ?
Sol :
P(« 2 noires » ) =P (N ∩ N ∩ B ) ∪ (N ∩ B ∩ N ) ∪ (B ∩ N ∩ N )
=P(N ∩ N ∩ B ) + P(N ∩ B ∩ N ) + P(B ∩ N ∩ N ) par incomp.
=P(N ) × PN (N ) × PN ∩N (B ) + P(N ) × PN (B ) × PN ∩B (N )
+ P(B ) × PB (N ) × PB∩N (N )
3 2 4 3 4 2 4 3 2 12
= × × + × × + × × =
7 6 5 7 6 5 7 6 5 35
Exercice 6.9 On considère une urne contenant initialement une boule blanche et une boule noire. Après
chaque tirage, la boule est remise dans l’urne avec une autre boule de la même couleur. Pour tout n ∈ N∗ ,
calculer la probabilité pn que la première boule blanche soit obtenue au n-ième tirage.
+
P ∞
Calculer alors pn et interpréter ce résultat.
n=1
Sol : On montre avec la formule des probabilités composées que pn = n(n1+1) donc par somme
+
P ∞
télescopique pn = 1. On en conclut qu’on obtiendra une boule blanche presque sûrement.
n=1
On appelle système quasi-complet d’événements toute famille (Ai )i∈I d’événements de (Ω, T , P)
(où I désigne une partie finie ou infinie de N) vérifiant :
⋆ pour tout i ̸= j Ai ∩ Aj = ∅
P
⋆ P ( Ai ) = 1
i∈I
Ainsi un système quasi-complet d’événements est une famille d’événements, deux à deux incompatibles,
dont la somme des probabilités est égale à 1.
Remarque : Tout système complet d’événements est un système quasi-complet d’événements, mais la réciproque
est fausse.
Une autre interprétation du résultat de l’exercice précédent est que si on note pour tout entier non nul n, An :
« on obtient la première boule blanche au tirage n » alors (An )n∈N∗ est un système quasi-complet d’événements
mais pas un système complet puisque la réunion de tous ces événements ne donne pas Ω il manque l’événement
ne jamais obtenir de boule blanche.
T HÉORÈME 6.10 – Probabilités totales
Soit (Ω, T , P) un espace probabilisé. Soit (Ai )i∈I une famille finie ou dénombrable formant système quasi-
complet d’événements. Alors, pour tout autre événement B, on a :
X X
P(B ) = P ( Ai ∩ B ) = P(Ai )PAi (B ).
i∈I i∈I
Démonstration : Commençons par le cas où (Ai )i∈I forment un système complet d’événements.
Notons d’abord que les Ai sont deux à deux disjoints donc ∀i, j ∈ I avec i ̸= j on a (Ai ∩ B ) ∩ (Aj ∩ B ) = ∅.
! !
[ [ X X
P(B ) = P(B ∩ Ω ) = P B∩ Ai =P (Ai ∩ B ) = P(B ∩ Ai ) = P(Ai )PAi (B )
incomp. prob. cond.
i∈I i∈I i∈I i∈I
S
Considérons maintenant le cas où (Ai )i∈I forment un système complet d’événements, et notons A = Ai .
i∈I
Comme précédemment on a :
! !
[ [ X X
P(B ∩ A) = P B∩ Ai =P ( Ai ∩ B ) = P(B ∩ Ai ) = P(Ai )PAi (B )
incomp. prob. cond.
i∈I i∈I i∈I i∈I
Mais (A, A) forme un système complet d’événements et donc avec le cas précédent on a P(B ) = P(A ∩ B ) +
P(A ∩ B ). Or B ∩ A ⊂ A et P(A) = 1 − P(A) = 1 − 1 = 0 et donc 0 ⩽ P(B ∩ A) ⩽ P(A) = 0 et donc
P(B ) = P(B ∩ A) d’où le résultat. □
Remarques :
⋆ Tandis que la première égalité est toujours vraie, la seconde n’est a priori valable que si tous les Ai sont de
probabilité non nulle. En effet si P(Ai ) = 0 alors que PAi (B ) n’existe pas mais la convention est de bon
sens, parce que, si P(Ai ) = 0, alors P(Ai ∩ B ) = 0 puisque Ai ∩ B ⊂ Ai .
⋆ Dans le cas où la famille est indexée sur N, c’est-à-dire qu’on considère la famille (An )n∈N alors le théorème
dit que :
X +∞
X
P(An ∩ B ) converge et P(B ) = P ( An ∩ B )
n=0
⋆ Cette formule s’utilise chaque fois que l’expérience aléatoire est réalisée en plusieurs étapes, et que l’on
s’intéresse au résultat final. Les premières expériences aboutissent à plusieurs résultats incompatibles entre
eux, et nous donnent ainsi un système (quasi-)complet d’événements.
Exercice 6.10 Un joueur lance une pièce équilibrée jusqu’à obtention du premier pile. S’il lui a fallu n
lancers (avec n ∈ N∗ ) pour obtenir ce premier pile, on lui fait alors tirer au hasard un billet de loterie parmi n
billets dont un seul est gagnant. Quelle est la probabilité que le joueur gagne ?
Sol : On reprend les notations de l’expérience 1 de l’exemple 6.2. La famille ({ωn })n∈N∗ forme
un système quasi-complet d’événements. D’après la formule des probabilités totales écrite avec ce
système on obtient :
+∞
X
P(« Le joueur gagne » ) = P(« Le joueur gagne » ∩ {ωn })
n=1
+∞
X
= P({ωn })P{ωn } (« Le joueur gagne » )
n=1
+∞
X 1 1
= n
× = ln(2)
2 n
n=1
On renvoie à un des exercices du td sur les séries où cette somme avait été calculée. On redonne
ici les grandes idées de cet exercice. Par analogie avec ce que nous avons fait pour la dérivée des
séries géométrique on procède de la manière suivante.
n
X 1 − tn + 1 1 tn + 1
Notons Sn (t) = tk = = − . Soit q ∈ [0, 1[ en intégrant on obtient :
1−t 1−t 1−t
k =0
n Z
q q q q
tn+1
Z Z Z
X 1
Sn (t) dt = tk dt = dt − dt
0 1−t 1−t
k =0 0 0 0
Soit
n q
tn + 1
Z
X 1 k +1
q = − ln(1 − q ) − dt
k+1 0 1−t
k =0
On a l’encadrement suivant
Z q n+1
q n+2
Z q
t 1
0⩽ dt ⩽ tn+1 dt = −−−−−→ 0
0 1−t 1−q 0 n + 2 n→+∞
D’où
n n +1 k
X q k +1 X q
lim = lim = − ln(1 − q )
n→+∞ k+1 n→+∞ k
k =0 k =1
+ ∞ 1
1 P
D’où en prenant q = 2 on obtient n
= ln(2)
n=1 n2
P(A ∩ B ) P ( B ) PB ( A )
PA ( B ) = = .
P(A) P(A)
Exercice 6.11 Reprenons l’exercice précédent. Le joueur gagne. Calculer la probabilité qu’il ait obtenu le
premier pile au deuxième lancer de la pièce.
Sol :
P({ω2 })P{ω2 } (« Le joueur gagne » )
P« Le joueur gagne » ({ω2 }) =
P(« Le joueur gagne » )
1
×1 1
=4 2 = ≈ 0, 18
ln(2) 8 ln(2)
IV Indépendance
Définition – Indépendance
Soit Ω, T , P un espace probabilisé. Deux événements A et B sont indépendants pour la probabilité
P lorsque P(A ∩ B ) = P(A)P(B ).
Ne pas confondre indépendance et incompatibilité ! Deux événements incompatibles de probabilités non nulles
ne sont jamais indépendants. Contrairement à l’incompatibilité qui est une notion ensembliste, l’indépendance
est une notion probabiliste. Elle dépend de la probabilité P choisie sur l’univers.
Remarque : L’indépendance des événements est souvent une conséquence (implicite) des conditions de l’expé-
rience : « lancers de dés successifs » « tirages avec remise », . . .
Exercice 6.12
1. On lance un dé équilibré, et on considère les événements A : « on obtient un chiffre pair », et B : « on
obtient un chiffre supérieur ou égal à 3 ». Les événements A et B sont-ils indépendants ?
2. Reprenons l’expérience où on lance la pièce équilibrée jusqu’à obtenir pile. Étudier l’indépendance des
deux événements suivants : A : « le nombre de lancers est pair » et B : « le nombre de lancers est multiple
de 3 ».
T HÉORÈME 6.12
Soient A et B deux événements. Alors
(1) Si P(A) ̸= 0, les événements A et B sont indépendants ⇐⇒ PA (B ) = P(B ).
(2) Si A et B sont indépendants alors A et B sont indépendants, ainsi que A et B, et que A et B.
Démonstration : □
Remarque : Ne pas confondre mutuellement indépendant et deux à deux indépendants qui est une notion moins
forte, qui dit : ∀(i, j ) ∈ J1, nK2 , i ̸= j, P(Ai ∩ Aj ) = P(Ai )P(Aj ).
Exercice 6.13 On lance deux fois un dé équilibré. On note A : « Le premier dé amène un nombre pair »,
B : « Le deuxième dé amène un nombre pair », et C : « La somme des deux dés est paire ». Les événements A,
B et C sont-ils mutuellement indépendants ?
Remarque : Là encore, l’indépendance mutuelle d’événements est souvent une conséquence implicite des
conditions de l’expérience.
5.1 Définition
Il faut un peu adapter la notion de variable aléatoire pour pouvoir travailler dans un univers infini. Au fond,
que voulons-nous faire ? On veut pouvoir calculer des probabilités tels que P(X = 2) ou P(X ⩽ 1). Pour cela, il
faut que (X = 2) et (X ⩽ 1) soient des événements, c’est-à-dire soient dans la tribu T de l’espace probabilisé.
En fait, on peut montrer qu’il suffit que les parties de la forme (X ⩽ x) soient dans T pour que toutes les autres
que l’on veut avoir y soient aussi. C’est pourquoi on pose la définition suivante.
Soit (Ω, T ) un espace probabilisable. On appelle variable aléatoire réelle sur (Ω, T ) toute applica-
tion X : Ω → R telle que :
∀a ∈ R, {ω ∈ Ω / X (ω ) ⩽ a} noté (X ⩽ a) appartient à T .
L’ensemble X (Ω) est appelé l’univers image de X ou l’ensemble des valeurs prises par X.
Remarque : Puisque (X ⩽ a) est un événement, si P est une probabilité sur (Ω, T ) alors P (X ⩽ a) est bien
définie.
P ROPRIÉTÉ 6.13
Soit X une variable aléatoire définie sur l’espace probabilisable (Ω, T ).
Pour tout intervalle I de R, l’ensemble {ω ∈ Ω / X (ω ) ∈ I}, noté (X ∈ I ), appartient aussi à T .
Démonstration : Donnée à titre informatif. D’après les propriétés de la tribu T , on a pour tout a ∈ R :
[ 1
(X > a) = (X ⩽ a) ∈ T , (X < a) = X ⩽ a− ∈T, (X = a) = (X ⩽ a) ∩ (X < a) ∈ T .
n
n∈N∗
Remarque : Comme en général, on n’explicite pas la tribu T , on ne demande jamais de montrer qu’une fonction
X : Ω → R est effectivement une variable aléatoire. Si la question est cependant posée, il s’agit plutôt de montrer
que X est presque sûrement définie comme dans l’un des exemples précédents.
Soit X une variable aléatoire sur l’espace probabilisé (Ω, T , P). On appelle fonction de répartition
de X la fonction notée FX définie sur R par :
∀x ∈ R, FX ( x ) = P ( X ⩽ x )
Démonstration :
(1) C’est évident puisque FX est une probabilité.
(2)
P(a < X ⩽ b) =P (a < X ) ∩ (X ⩽ b) = P (X ⩽ B ) ∩ (X ⩽ b)
= P ( X ⩽ b ) \ ( X ⩽ a ) = P ( X ⩽ b ) − P ( X ⩽ a ) = FX ( b ) − FX ( a )
Soient X et Y deux variables aléatoires définies sur un espace probabilisé (Ω, T , P). On dit que X et Y
sont indépendantes si pour tous I et J intervalles de R, on a :
P (X ∈ I ) ∩ (Y ∈ J ) = P(X ∈ I )P(Y ∈ J )
Remarques :
⋆ Dit d’une autre manière, X et Y sont indépendantes si tous les événements liés à X sont indépendants de
tous les événements liés à Y .
⋆ En particulier, si X et Y sont deux variables aléatoires indépendantes, alors, pour tous x, y de R,
P (X ⩽ x) ∩ (Y ⩽ y ) = P(X ⩽ x)P(Y ⩽ y )
⋆ L’événement (X ∈ I ) ∩ (Y ∈ J ) est parfois noté (X ∈ I, Y ∈ J ).
Soient X1 , X2 , . . . , Xn des variables aléatoires définies sur l’espace probabilisé (Ω, T , P). On dit que
X1 , X2 , . . . , Xn sont indépendantes (ou mutuellement indépendantes si on veut insister sur la
différence avec une indépendance deux à deux) lorsque pour tous intervalles I1 , I2 , . . . , In de R, on a :
n n
!
\ Y
P ( X ∈ Ik ) = P(X ∈ Ik )
k =1 k =1
Soit (Xn )n∈N une suite de variables aléatoires définies sur l’espace probabilisé (Ω, T , P). On dit que
(Xn )n∈N est une suite de variables aléatoires (mutuellement) indépendantes lorsque pour toute
partie finie I de N, les variables aléatoires (Xi )i∈I sont indépendantes.
P ROPRIÉTÉ 6.15
Soient X1 , X2 , . . . , Xn des variables aléatoires indépendantes définies sur (Ω, T , P) alors :
(1) Toute sous-famille est aussi indépendante (principe d’extraction). Autrement dit, si i1 , i2 , . . . iN sont des
indices deux à deux distincts de J1, nK alors les variables aléatoires Xi1 , Xi2 , . . . , XiN sont indépendantes.
sur X1 (Ω) × . . . × Xp (Ω) (resp. Xp+1 (Ω) ×
(2) (Lemme des coalitions) Si f (resp. g) est une fonction définie
. . . × Xn (Ω)) alors les variables aléatoires f X1 , . . . , Xp et g Xp+1 , . . . , Xn sont indépendantes.
(3) Si pour tout i de J1, nK, fi est une fonction réelle définie sur Xi (Ω) alors les variables aléatoires
f1 (X1 ), f2 (X2 ), . . . , fn (Xn ) sont indépendantes.
Exemple 6.6. Si (Xn )n∈N est une suite de variables aléatoires indépendantes, alors :
(1) X1 , X2 et X4 sont indépendantes,
(2) X2 × cos(X1 ) et X32 + 2X4 − 1 sont indépendantes,
n
P
(3) Sn = Xk et Xn+1 sont indépendantes,
k =0
(4) cos(X1 ), eX2 , X32 et 2X4 − 1 sont indépendantes.