Chapitre 1
Espaces probabilisés
1.1 Espaces probabilisables
Pour un ensemble Ω, P(Ω) désigne l’ensemble des parties de Ω.
Définition 1.1.1
Soit Ω un ensemble et T un sous-ensemble de P(Ω). On dit que T est une tribu (ou
σ-algèbre) sur Ω si T vérifie :
1. ∅ ∈ T .
2. T est stable par passage au complémentaire dans Ω, c’est-à-dire que ∁A
Ω =
Ω\A ∈ T pour tout A ∈ T .
Y
NA
3. T est stable par réunion dénombrable, c’est-à-dire que ∪n∈N An ∈ T pour
toute suite (An ) d’éléments de T .
AZ
Une fois qu’on s’est donné une tribu T sur Ω, les éléments appartenant à T sont désignés
comme les ensembles mesurables (ou T -mesurables). Le couple (Ω, T ) est appelé un espace
mesurable.
Définition 1.1.2 (Langage probabiliste)
Z.
Considérons un ensemble Ω arbitraire, désigné comme l’univers des possibles, et
une tribu T sur Ω. Les éléments de Ω sont appelés éventualités, tandis que ceux
de T (c’est-à-dire les ensembles T -mesurables) sont appelés événements. Un évé-
nement qui consiste en un seul élément est appelé événement élémentaire. L’espace
mesurable (Ω, T ) est appelé espace probabilisable.
On déduit facilement les propriétés suivantes de la tribu T :
— L’ensemble Ω appartient à T .
— T est aussi stable par unions et intersections finies.
Exemples
1- Les exemples les plus simples de tribus sur un ensemble Ω sont : T = P(Ω) et T = {∅, Ω}.
2- Imaginons le lancer d’un dé équilibré. L’univers des possibles Ω représente toutes les faces
du dé, c’est-à-dire 1, 2, 3, 4, 5, 6. La tribu T est formée de tous les sous-ensembles de Ω, car
nous considérons toutes les éventualités possibles. Par exemple, {2, 4, 6} dans Ω représente
l’événement : "le résultat du lancer est un nombre pair". Les ensembles {1}, {2}, . . . , {6} sont
2
1.1. ESPACES PROBABILISABLES
les événements élémentaires, Ω représente l’événement certain et ∅ l’événement impossible
(qui a donc une probabilité nulle de se réaliser).
3- Tribu trace (induite) : Soit T une tribu sur Ω. Pour toute partie fixée C non vide de Ω, on
définit
TC := {A ∩ C; A ∈ T }.
Alors TC est une tribu sur C, appelée tribu induite par T (ou encore tribu trace de T ) sur C.
4- Tribu image réciproque : Soient Ω et Y deux ensembles non vides et f : X −→ Y une
application donnée. Si T ′ est une tribu sur Y , alors f −1 (T ′ ) = {f −1 (B); B ∈ T ′ } est une tribu
sur X, appelée la tribu image réciproque de T ′ par f.
5- L’intersection quelconque d’une famille de tribus sur un ensemble Ω forme également une
tribu sur X.
Définition 1.1.3
Soit M une partie de P(Ω), on appelle tribu engendrée par M la plus petite tribu
Y
contenant M . On note cette tribu σ(M ).
NA
Il facie de voir que :
\
σ(M ) = T.
T tribu ; T ⊃M
AZ
Exercice
Soient A ∈ P(Ω) et M = {A} , montrer que :
σ(M ) = {∅, A, Ac , Ω} .
Z.
Tribu produit
Soient (Ω1 , T1 ) et (Ω2 , T2 ) deux espaces mesurables.
- La tribu produit de T1 et T2 est la tribu sur le produit cartésien Ω1 × Ω2 , noté T1 ⊗ T2 , engen-
dré par les parties A × B où A ∈ T1 et B ∈ T2 . Autrement dit, T1 ⊗ T2 = σ (T1 × T2 ) .
- Le couple (Ω1 × Ω2 , T1 ⊗ T2 ) est dit espace mesurable produit des espaces (Ω1 , T1 ) et (Ω2 , T2 ) .
Remarque : Le produit cartésien des deux tribus, T1 × T2 n’ est pas une tribu sur Ω1 × Ω2 (La
stabilité par réunion dénombrable tombe en défaut).
Il est possible de construire de très nombreuses tribus sur un ensemble donné, mais l’une
d’entre elles joue en mathématique, et notamment en théorie des probabilités, un rôle fonda-
mental. C’est la tribu borélienne. Elle s’appuie sur les propriétés topologiques de l’ensemble
de base.
3
1.1. ESPACES PROBABILISABLES
Définition 1.1.4 (Rappel)
Une topologie sur un ensemble X est une famille O de parties de X telles que :
- ∅ ∈ O, X ∈ O.
N
\
- Si O1 , . . . , ON ∈ O, alors Oi ∈ O.
i=1 [
- Si {Oi }i∈I est une famille quelconque d’éléments de O, alors Oi ∈ O.
i∈I
Les éléments de O s’appellent les ouverts de X, et (X, O) est désigné comme un
espace topologique.
Définition 1.1.5 (Tribu de Borel)
La tribu de Borel, aussi connue sous le nom de tribu borélienne, est définie sur un
espace topologique (X, O) comme la tribu σ(O) engendrée par la topologie O, notée
B(X). Les éléments de cette tribu sont appelés les boréliens de X. La tribu de Borel
B(Rn ) sur Rn est engendrée par la topologie usuelle de Rn .
Y
NA
Remarque 1.1.6 (Pas vers la Hiérarchie de Borel)
Il est important de remarquer que, contrairement à ce que l’on pourrait être tenté
de croire, les éléments de la tribu engendrée par une partie M ne sont pas tous
AZ
obtenus, à partir des éléments de M, en utilisant les opérations : intersection dé-
nombrable, union dénombrable et passage au complémentaire. Plus précisément,
Considérons le cas de la tribu de Borel BR , on pose Gσ l’ensemble des unions dé-
nombrables des fermés de R, et Fδ l’ensemble des intersections dénombrables d’ou-
verts de R. Il est facile de voir que Gδ ∪ Fδ ⊊ BR .
Z.
Remarque :
BR est engendrée par les ouverts de R (ou les fermés de R), mais aussi par :
- les intervalles ]a, b[, a ≤ b - les intervalles ]a, +∞[
- les intervalles [a, b], a ≤ b - les intervalles ] − ∞, b[
- les intervalles [a, +∞[
- les intervalles [a, b[, a ≤ b - les intervalles ]a, b], a ≤ b
- les intervalles ] − ∞, b]
- les intervalles ]a, b[, a ≤ b ∈ Q
4
1.2. ESPACES PROBABILISÉS
1.2 Espaces probabilisés
Définition 1.2.1
Soit (Ω, T ) un espace probabilisable. Une probabilité sur T est une mesure positive
P sur T telle que P (Ω) = 1. Autrement dit, c’est une application P : T → R+ (avec
R+ = [0, +∞]) qui satisfait les conditions suivantes :
1. P (Ω) = 1.
2. P est σ-additive, ce qui signifie que pour toute famille {An }n∈N d’événements
disjoints deux à deux (c’est-à-dire An ∩ Am = ∅ si n ̸= m), on a :
!
[ X
P An = P (An ) .
n∈N n∈N
On dit alors que le couple (Ω, T , P ) est un espace probabilisé.
Y
Dans la définition précédente on a étendu à R+ l’addition dans R+ . On a simplement posé
NA
x + (+∞) = +∞, pour tout x ∈ R+ .
La proposition suivante donne les principales propriétés d’une probabilité .
Proposition 1.2.2 (propriétés d’une probabilité)
AZ
Soit (Ω, T , P ) un espace probabilisé. La probabilité P vérifie les propriétés sui-
vantes :
1. Monotonie : Si A, B ∈ T et A ⊂ B, alors P (A) ⩽ P (B).
2. Additivité : Pour tout A, B ∈ T , on a P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
Z.
3. Complémentarité : Pour tout A ∈ T , P (Ac ) = 1 − P (A).
4. σ-sous-additivité : Si (An ) n ∈ N est une suite de T , alors
!
[ X
P An ⩽ P (An ) .
n∈N n∈N
5. Continuité croissante : Si (An ) n ∈ N est une suite croissante de T , alors
!
[
P An = n→∞
lim P (An ) .
n∈N
6. Continuité décroissante : Si (An ) n ∈ N est une suite décroissante de T , alors
!
\
P An = lim P (An ) .
n→∞
n∈N
Exemples élémentaires de Probabilité
5
1.2. ESPACES PROBABILISÉS
1- Mesure de Dirac en un point
Soit (Ω, T ) un ensemble mesurable non vide, et soit a ∈ Ω. On définit la mesure de dirac
δa : T → [0, +∞], de a par
1
si a ∈ A
δa (A) = , ∀A ∈ T .
0
sinon
2- Mesure de Lebesgue sur ([0, 1], B[0,1] )
Il existe une unique mesure positive sur (R, BR ), notée λ, telle que
λ(]a, b[) = b − a, pour tous a, b ∈ R.
La restriction de la mesure de Lebesgue λ à B[0,1] constitue une probabilité, connue sous le
nom de probabilité uniforme sur [0, 1].
La formule suivante permet de calculer la probabilité d’une réunion finie d’événements en
Y
fonction des probabilités de ces événements individuels et de celles de leurs intersections.
NA
Proposition 1.2.3 (La formule du crible de Poincaré)
Soient (Ω, T , P ) un espace probabilisé, n ∈ N∗ et A1 , . . . , An des événements quel-
conques. Alors :
AZ
n n
!
(−1)k+1
[ X X
P Ai = P (Ai1 ∩ · · · ∩ Aik ) .
i=1 k=1 1≤i1 <i2 <...<ik ≤n
Preuve
Z.
Il est simple de vérifie la formule pour n = 2. Supposons alors que la formule soit vraie pour
n événements, c’est-à-dire :
n n
!
(−1)k+1
[ X X
P Ai = P (Ai1 ∩ · · · ∩ Aik ) .
i=1 k=1 1≤i1 <i2 <...<ik ≤n
Nous voulons maintenant prouver que la formule est également vraie pour n + 1 événe-
ments.
Considérons l’événement An+1 . Nous avons :
n+1 n n n
! ! ! !
[ [ [ [
P Ai = P ( Ai ) ∪ An+1 = P Ai + P (An+1 ) − P (Ai ∩ An+1 )
i=1 i=1 i=1 i=1
En utilisant l’hypothèse de récurrence, nous obtenons :
n+1 n n
! !
k+1
[ X X [
P Ai = (−1) P (Ai1 ∩ · · · ∩ Aik ) + P (An+1 ) − P Ai ∩ An+1
i=1 k=1 1≤i1 <i2 <...<ik ≤n i=1
6
1.3. PROBABILITÉ CONDITIONNELLE
En appliquant maintenant la formule pour les n événements {A1 ∩ An+1 , . . . , An ∩ An+1 },
nous obtenons :
n+1 n
!
(−1)k+1
[ X X
P Ai = P (Ai1 ∩ · · · ∩ Aik )
i=1 k=1 1≤i1 <i2 <...<ik ≤n
n
(−1)k+1
X X
+P (An+1 ) − P (Ai1 ∩ · · · ∩ Aik ∩ An+1 )
k=1 1≤i1 <i2 <...<ik ≤n
En réorganisant les termes, nous obtenons la formule pour n + 1 événements :
n+1 n+1
!
(−1)k+1
[ X X
P Ai = P (Ai1 ∩ · · · ∩ Aik )
i=1 k=1 1≤i1 <i2 <...<ik ≤n+1
Ainsi, par récurrence, la formule du crible de Poincaré est prouvée pour tout n.
Proposition 1.2.4 (Inégalité de Bonferroni)
Y
Soient (Ω, T , P ) un espace probabilisé, n ∈ N∗ et A1 , . . . , An des événements quel-
conques. Alors :
NA
n n
!
X X [
P (Ai ) − P (Ai ∩ Aj ) ≤ P Ai .
i=1 1≤i<j≤n i=1
AZ
1.3 Probabilité conditionnelle
Supposons qu’une urne contienne 3 boules rouges, 2 blanches et 2 vertes. La probabilité
Z.
initiale d’obtenir une boule rouge est 37 . Si nous savons que nous ne pouvons pas obtenir
de boule verte, la probabilité conditionnelle d’obtenir une boule rouge devient 35 . Cela nous
permet de donner la définition suivante :
Proposition et Défintion 1.3.1 (Probabilité conditionnelle)
Soientt (Ω, T , P ) un espace probabilisé, et A un événement non négligeable (i.e.
P (A) ≥ 0). L’application PA : (Ω, T ) → R+ définie par PA (B) := P P(A∩B)
(A)
est une pro-
babilité sur (Ω, T ), et le réel PA (B) (noté également PA (B) := P (B|A)) est appelée
la probabilité conditionnelle de B sachant que A s’est réalisé (ou la probabilité de
B sachant A).
Preuve
P (A∩Ω)
PA est une probabilité. En effet, d’une part on a PA (Ω) = P (A)
= 1; et d’autre part, si {Bn }n
P
P (A∩(∪n Bn )) P (A∩Bn ) P P (A∩Bn )
est une suite d’événements, alors PA (∪n Bn ) = P (A)
= n
P (A)
= n P (A)
=
P
n PA (Bn ).
7
1.4. EVÉNEMENTS INDÉPENDANTS, TRIBUS INDÉPENDANTS
Remarque 1.3.2 (Théorème de Bayes)
Soient (Ω, T , P ) un espace probabilisé et A, B deux événements non négligeables.
Alors P (A)PA (B) = P (B)PB (A).
Proposition 1.3.3 (Formule des probabilités composées)
Soient (Ω, T , P ) un espace probabilisé et A1 , . . . , An des événements tel que
P (∩n−1
k=1 Ak ) > 0. Alors
P (∩nk=1 Ak ) = P (A1 )PA1 (A2 )PA1 ∩A2 (A3 ) . . . P∩n−1 Ak (An ).
k=1
Proposition 1.3.4 (Formule des probabilités totales)
Soient (Ω, T , P ) un espace probabilisé et {An }n∈N un système complet d’événements
(i.e. une partition de Ω), tous de probabilité non nulle. Soit B un événement. Alors :
Y ∞
NA X
P (B) = P (An )PAn (B).
n=0
Preuve ∞
! ∞ ∞
AZ
[ X X
On a P (B) = P (B ∩ Ω) = P B ∩ ( An ) = P (B ∩ An ) = P (An )PAn (B).
n=0 n=0 n=0
Corollaire 1.3.5 (Théorème de Bayes)
Soient (Ω, T , P ) un espace probabilisé et {An }n∈N un système complet d’événe-
Z.
ments, tous de probabilité non nulle. Alors, pour tout événement B de probabilité
non nulle, on a : :
P (An )PAn (B)
PB (An ) = X
∞ .
P (An )PAn (B)
n=0
Preuve ∞
X
On a d’après la formule des probabilités composées [ P (An )PAn (B)]PB (An ) = P (B)PB (An ) =
n=0
P (An )PAn (B), d’où le résultat.
1.4 Evénements indépendants, Tribus indépendants
Lorsque nous modélisons un phénomène aléatoire, nous identifions des événements qui
semblent être indépendants, c’est-à-dire que la réalisation de l’un semble ne pas affecter
l’autre. Dans ce cas, nous choisissons une probabilité dans notre modèle probabiliste qui
préserve cette indépendance.
8
1.4. EVÉNEMENTS INDÉPENDANTS, TRIBUS INDÉPENDANTS
Définition 1.4.1 (Deux événement indépendants)
Soit (Ω, T , P ) un espace probabilisé. Deux événements A et B sont dit indépendants
lorsque P (A ∩ B) = P (A)P (B).
Proposition 1.4.2
Soient (Ω, T , P ) un espace probabilisé et A, B ∈ T . Si A et B sont indépendants,
alors C et D sont également indépendants, pour tout C ∈ {A, AC } et D ∈ {B, B C }.
Preuve
Il suffit de montrer que A et B C sont indépendants. Nous avons P (A)P (B C ) = P (A)(1 −
P (B)) = P (A)−P (A∩B) = P (A\(A∩B)) = P (A∩B C ), donc A et B C sont indépendants. Par
conséquent, en utilisant cette propriété, nous pouvons conclure que C et D sont également
indépendants pour tout C ∈ {A, AC } et D ∈ {B, B C }.
Y
La généralisation de l’indépendance entre deux événements se fait en introduisant la notion
NA
d’indépendance entre tribus :
Définition 1.4.3 (Indépendance des tribus)
Soient (Ω, T ) un espace probabilisé, n ∈ N∗ et {T1 , . . . , Tn } une famille de n tribus
AZ
incluses dans T . Les n tribus T1 , . . . , Tn sont dites indépendantes si pour tout n-uplet
n
\ n
Y
d’événements A1 , . . . , An avec Ak ∈ Tk , on a P ( Ak ) = P (Ak ).
k=1 k=1
Z.
Définition 1.4.4 (Evénements indépendants)
Soient (Ω, T ) un espace probabilisé, n ∈ N∗ et A1 , . . . , An ∈ T . On dit que les
événements A1 , . . . , An sont indépendants (ou mutuellement indépendants) si les
tribus σ({A1 }), . . . , σ({A1 }) sont indépendantes.
Proposition 1.4.5
Soient (Ω, T , P ) un espace probabilisé, n ∈ N∗ et A1 , . . . , An des événements.
Alors les événements A1 , . . . , An sont indépendants si et seulement si P (∩i∈I Ai ) =
i∈I P (Ai ) pour tout I ⊂ {1, . . . , n}.
Q