Table des matières
I Chapitre 2 : Calcul de probabilité d’un événement 1
Définition 1
Axiomes du calcul de probabilité 2
Conséquences des trois axiomes : 2
Conséquence 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Conséquence 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Conséquence 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Conséquence 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Probabilité totale - probabilité conditionnelle 4
Probabilité totale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Indépendance stochastique : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Première partie
Chapitre 2 : Calcul de probabilité
d’un événement
Définition
D’une façon générale, lorsque un événement A est constitué d’un sous-ensemble de l’ensemble
fondamentale Ω, la probabilité pour que cet événement se réalise est égale au rapport suivant :
Card(A) #(A)
P (A) = =
Card(Ω) #(Ω)
avec Card(A) est le nombre d’éventualités équiprobables qui définissent A et Card(Ω) est le
nombre total d’éventualités équiprobables possibles qui définissent Ω.
Cette probabilité est toujours comprise entre 0 et 1.
Dans l’exemple 0.1 , Ω = {1, 2, 3, 4, 5, 6} , le nombre total d’éventualités est 6. Alors :
3 1 4 2
P (E1 ) = = , P (E2 ) = = ,
6 2 6 3
3 1 5 0
P (E3 ) = = , P (E4 ) = , P (E5 ) = P (∅) = = 0
6 2 6 6
Conséquences 0.1 (i) La probabilité de l’ensemble fondamental est égale à 1 :
N
P (Ω) = = 1.
N
1 Dr Haidara
(ii) La probabilité attachée à la partie vide de Ω est nulle :
0
P (∅) = = 0.
N
(iii) La probabilité d’un événement E de Ω est toujours comprise entre 0 et 1 :
0 ≤ P (E) ≤ 1.
(iv) Si A et B sont deux événements incompatibles de Ω, alors :
P (A ∪ B) = P (A) + P (B).
(v) Soit A un événement de Ω alors son complémentaire A est dans Ω et :
P (A) = 1 − P (A).
Axiomes du calcul de probabilité
Une présentation complète de l’axiomatique du calcul de probabilité doit être précédée d’une
définition d’un ensemble probabilisable et d’une loi de probabilité attachée à cet ensemble,
en distinguant le cas d’un ensemble fini, d’un ensemble infini dénombrable et d’un ensemble
infini non dénombrable. Nous adoptons ici une présentation simplifiée qui s’applique aux
deux premiers cas.
Définition 0.1 Soit Ω l’ensemble fondamentale associé à une experience aléatoire. A chaque
événement E issu de cette expérience, on peut associer un réel appelé probabilité de E et noté
P (E), tel que :
A1 0 ≤ P (E) ≤ 1
A2 P (Ω) = 1
A3 Si E1 , E2 , ..., En des événements incompatibles deux à deux alors :
n
! n
[ X
P Ei = P (Ei )
i=1 i=1
Conséquences des trois axiomes :
Conséquence 1
Probabilité de l’événement complémentaire est :
P (E) = 1 − P (E)
On a alors :
P (E ∪ E) = P (Ω) = 1.
Or : E et E sont incompatibles, donc d’après l’axiome A3 :
P (E ∪ E) = P (E) + P (E) = 1
2 Dr Haidara
Conséquence 2
Si E1 et E2 sont deux événements de Ω tels que E1 ⊂ E2 alors :
P (E1 ) ≤ P (E2 ).
On peut écrire :
E2 = E1 ∪ (E2 ∩ E 1 ).
De plus : E1 et E2 ∩ E 1 sont incompatibles, alors :
P (E2 ) = P (E1 ) + P (E2 ∩ E 1 ),
ceci donne
P (E2 ) − P (E1 ) = P (E2 ∩ E 1 ) ≥ 0,
ie
P (E2 ) − P (E1 ) ≥ 0
Ce qui donne
p(E1 ) ≤ p(E2 ).
Conséquence 3
Soient E1 et E2 deux événements quelconques de Ω, alors :
P (E1 ) = P (E1 ∩ E2 ) + P (E1 ∩ E 2 )
On peut décomposer l’événement E1 en deux événements incompatibles :
E1 = (E1 ∩ E2 ) ∪ (E1 ∩ E 2 )
=⇒
P (E1 ) = P (E2 ∩ E 1 ) + P (E2 ∩ E 1 )
Conséquence 4
Si E1 , ..., En sont des événements de Ω incompatibles deux à deux tel que
n
[
Ei = Ω,
i=1
on dit qu’ils forment un système complet.
Puisque les n événements sont incompatibles deux à deux, on peut écrire :
n
! n
[ X
P Ei = P (Ei ) = P (Ω) = 1.
i=1 i=1
3 Dr Haidara
Probabilité totale - probabilité conditionnelle
Probabilité totale
L’axiome A3 traite la reunion d’événements incompatibles. Considérons maintenant le cas
de la réalisation, lors d’une expérience aléatoire, de l’un ou de l’autre de deux événements
quelconques.
Théorème 0.1 La probabilité de la réunion de deux événements, incompatibles ou non est
égale à la somme des probabilités des deux événements diminuée par la probabilité de leur
intersection :
P (E1 ∪ E2 ) = P (E1 ) + P (E2 ) − P (E1 ∩ E2 )
E1 ∪ E2 peut être décomposer en trois événements incompatibles deux à deux (mutuellement
exclusifs) :
On a alors :
E1 ∪ E2 = (E1 \E2 ) ∪ (E1 ∩ E2 ) ∪ (E2 \E1 )
=⇒
P (E1 ∪ E2 ) = P (E1 \E2 ) + P (E1 ∩ E2 ) + P (E2 \E1 )
Et puisque
P (E1 \E2 ) = P E1 ∩ E 2 = P (E1 ) − P (E1 ∩ E2 )
et
p (E2 \E1 ) = P E 1 ∩ E2 = P (E2 ) − P (E1 ∩ E2 )
On a :
P (E1 ∪ E2 ) = P (E1 ) + P (E2 ) − P (E1 ∩ E2 )
Généralisation : le théorème peut s’étendre à trois événements E1 , E2 et E3 et on obtient :
P (E1 ∪ E2 ∪ E3 ) = P (E1 ) + P (E2 ) + P (E3 ) − P (E1 ∩ E2 )
−P (E1 ∩ E3 ) − P (E2 ∩ E3 ) + P (E1 ∩ E2 ∩ E3 )
Exemple 0.1 On considère l’expérience aléatoire qui consiste à jeter un dé non truqué, et
soient les événements :
E1 : ”Obtenir un nombre impair” : P (E1 ) = 3/6
E2 : ”Obtenir un nombre strictement supérieur à 2” : P (E2 ) = 4/6
La probabilité de la réunion des deux événements peut être calculée :
- Directement :
P (E1 ∪ E2 ) = P (”obtenir un nombre impair ou strictement supérieur à 2”)
5
= P (”obtenir 1,3,5 ou 3,4,5,6”) = P (”obtenir 1,3,4,5,6”) =
6
- Ou bien en utilisant la définition de la probabité totale :
P (E1 ∩ E2 ) = P (”obtenir un nombre impair et strictement supérieur à 2”)
1
= P (”obtenir 3 ou 5”) =
3
=⇒
1 2 1 5
P (E1 ∪ E2 ) = P (E1 ) + P (E2 ) − P (E1 ∩ E2 ) = + − =
2 3 3 6
4 Dr Haidara
Probabilité conditionnelle
La notion de probabilité conditionnelle s’introduit à chaque fois que pendant le déroulement
d’une expérience, une information partielle est fournie. On s’intéresse alors à la probabilité
d’un événement E1 sachant qu’un autre événement E2 a été réalisé.
Définition 0.2 Soit E1 et E2 deux événements de Ω tels que P (E2 ) 6= 0. On appelle proba-
bilité conditionnelle de E1 par rapport à E2 la probabilité de réalisation de l’événement E1
sachant que l’événement E2 est réalisé :
P (E1 ∩ E2 )
P (E1 /E2 ) =
P (E2 )
Exemple 0.2 On considère l’expérience aléatoire qui consiste à jeter deux dés non truqués.
Les résultats possibles sont au nombre de n = 36 :
(1, 1); (1, 2); (1, 3); (1, 4); (1, 5); (1, 6); (2, 1); (2, 2); (2, 3); (2, 4); (2, 5); (2, 6);
(3, 1); (3, 2); (3, 3); (3, 4); (3, 5); (3, 6); (4, 1); (4, 2); (4, 3); (4, 4); (4, 5); (4, 6);
(5, 1); (5, 2); (5, 3); (5, 4); (5, 5); (5, 6); (6, 1); (6, 2); (6, 3); (6, 4); (6, 5); (6, 6).
On considère les événements suivants :
E : ”les nombres obtenus avec les deux dés sont différents” : P (E) = 30/36 = 5/6
E1 : ”la somme des points obtenus est 7” : P (E1 ) = 6/36 = 1/6
E2 : ”la somme des points obtenus est 4” : P (E2 ) = 3/36 = 1/12
E2 : ”la somme des points obtenus est 12” : P (E3 ) = 1/36
1 2
P (E ∩ E1 ) = ; P (E ∩ E2 ) = ; P (E ∩ E3 ) = 0
6 36
P (E1 ∩ E) 1/6 1
P (E1 /E) = = =
P (E) 5/6 5
P (E2 ∩ E) 1/18 1
P (E2 /E) = = =
P (E) 5/6 15
P (E3 ∩ E)
P (E3 /E) = =0
P (E)
A partir de la définition de la probabilité conditionnelle, on peut déduire une relation intéressante
qui porte le nom de la formule de probabilité composée ou loi de multiplication.
Définition 0.3 Soit E1 et E2 deux événements de Ω de probabilités non nulles, la probabilité
de voir se réaliser à la fois les deux événements est égale à :
P (E1 ∩ E2 ) = P (E1 /E2 ) × P (E2 ) = P (E2 /E1 ) × P (E1 )
Généralisation : La définition précédente peut être généralisée dans le cas de n événements
E1 , E2 , ..., En de probabilités non nulles :
n
! n−1
! n−2
!
\ \ \
P Ei = P En / Ei × P En−1 / Ei
i=1 i=1 i=1
×... × P (E3 /E2 ∩ E1 ) × P (E2 /E1 ) × P (E1 )
5 Dr Haidara
ou bien
n
! n
! n
!
\ \ \
P Ei = P E1 / Ei ×P E2 / Ei
i=1 i=2 i=3
×... × P (En−1 /En ) × P (En )
Théorème de probabilité totale 0.1 Soient E1 , ..., En , n événements qui forment un système
complet de Ω de probabilités P (E1 ), ..., P (En ) connues. Pour tout événement E de Ω on a :
n
X
P (E) = P (E/Ei ) × P (Ei )
i=1
Théorème de bayes 0.1 Soient E1 , ..., En , n événements qui forment un système complet
de Ω de probabilités non nulles P (E1 ), ..., P (En ) connues. Pour tout événement E de Ω on
a:
P (E/Ei ) × P (Ei )
P (Ei /E) = Pn
i=1 P (E/Ei ) × P (Ei )
Démonstration 0.1 L’événement E peut être considéré comme étant la réunion de n événements
incompatibles deux à deux :
n
[ n
X
E= (E ∩ Ei ) =⇒ P (E) = P (E ∩ Ei )
i=1 i=1
or
P (E ∩ Ei )
P (E/Ei ) = , ∀i
P (Ei )
=⇒ P (E ∩ Ei ) = P (E/Ei ) × P (Ei ), ∀i.
Ce qui revient à dire que
n
X
E= P (E/Ei ) × P (Ei ).
i=1
Alors
P (Ei ∩ E) P (E/Ei ) × P (Ei )
P (Ei /E) = = Pn .
P (E) i=1 P (E/Ei ) × P (Ei )
Exemple 0.3 Dans une proportion de l’autoroute A1, l’experience a montré qu’il y a une
chance sur 8 de rencontrer un radar. Une voiture roule sur cette autoroute à une vitesse
qui dépasse la vitesse autorisée, mais le conducteur dispose d’un anti-radar qui se déclenche
automatiquement (en donnant une alerte sonore à un kilomètre avant l’emplacement du
radar) avec une probabilité de 0,9 s’il y a effectivement un radar et avec une probabilité 0,05
en absence de radar (défaut de fabrication). On veut déterminer la probabilité que l’anti-
radar se déclanche. Ensuite, si l’anti-radar se déclenche, on détermine la probabilité que ce
soit une fausse alerte ?
On pose :
E1 : ”il y a un radar sur l’autoroute” : P (E1 ) = 1/8
E2 : ”il n’y a pas de radar sur l’autoroute” : P (E2 ) = 7/8
Les événements E1 et E2 forment un système complet de Ω.
Soit l’événement E le suivant : ”l’anti-radar se déclenche” :
6 Dr Haidara
(i) On sait que : P (E/E1 ) = 0, 9 et P (E/E2 ) = 0, 05
On aura,
P (E) = P (E ∩ E1 ) + P (E ∩ E2 )
= P (E/E1 ).P (E1 ) + P (E/E2 ).P (E2 )
= 0, 15625.
(ii) La probabilité recherchée est :
P (E/E2 ).P (E2 )
P (E2 /E) = = 0, 28
P (E)
Indépendance stochastique :
Deux événements sont dits indépendants si la réalisation de l’un n’est aucunement influencée
par la réalisation de l’autre
Définition 0.4 Soient E1 et E2 deux événements de probabilités non nulles. E1 est indépendant
de E2 si :
P (E1 /E2 ) = P (E1 )
Conséquences 0.2
(i)
P (E1 ∩ E2 ) = P (E1 /E2 ) × P (E2 ) = P (E1 ) × P (E2 )
Ainsi, lorsque E1 est indépendant de E2 , alors E2 est indépendant de E1 , on dit que
l’indépendance est une relation symétrique.
(ii) L’indépendance entre E1 et E2 entraı̂ne l’indépendant entre l’indépendance entre E1
et E 2 , E 1 et E2 , E 1 et E 2 .
7 Dr Haidara