0% ont trouvé ce document utile (0 vote)
73 vues26 pages

Cours

Ce document introduit les notions de base des probabilités, notamment la définition d'une expérience aléatoire, d'un univers et d'événements. Il présente également la représentation ensembliste des événements et la définition d'un système complet d'événements et d'une tribu d'événements.

Transféré par

smail.doudou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
73 vues26 pages

Cours

Ce document introduit les notions de base des probabilités, notamment la définition d'une expérience aléatoire, d'un univers et d'événements. Il présente également la représentation ensembliste des événements et la définition d'un système complet d'événements et d'une tribu d'événements.

Transféré par

smail.doudou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 1 : Introduction aux probabilités

a) Théorème du binôme. Les nombres C sont souvent appelés coefficients binomiaux en raison de
leur rôle dans le théorème du binôme.

Théorème 8. (Binôme de Newton) Pour tous réels non nulles et et pour tout entier naturel

non nul , on a

+ = C .

Exemple.
Soit un ensemble avec | | = > 0. Déterminons le nombre de sous ensemble de .
Les sous-ensembles de sont de cardinaux 0,1,2,3, … , − 1 ou . Pour un donné appartenant à
0,1, … , le nombre de sous-ensemble de à éléments est C . Notons par ! l’ensemble
des sous-ensembles de à éléments. Puisque le cardinal d’un ensemble est unique, la famille
d’ensemble , " ,…, " , est deux-à-deux disjoints. En plus, on a

# ! = ∪ " ∪ …∪ " ∪ =
!
où désigne l’ensemble des sous-ensembles de . En utilisant l’additivité, on obtient
'()*+,- /+ 0 ô*-
/- 2-34(
%# ! %= ! = C! = C ! 1! 1 !
=
& 1+1 = 2|5| .
! ! " ! " ! "

I. Probabilité des évènements

1. Notion d’expérience aléatoire

Une expérience aléatoire, notée ℰ, est une donnée intuitive : c’est une expérience dont le résultat
ne dépend que du hasard.

Bien que dans la plupart des cas, on connait l’ensemble des résultats possibles, on ne peut pas
prévoir le résultat pour chaque réalisation de l’expérience.

Exemple. Exemples d’expériences aléatoires :


Lorsqu’on lance une pièce de monnaie, le résultat apparent de la pièce.
Lors d’un tirage au sort.
Le lancer d’un dé équilibré dont le résultat est la face supérieure du dé est observée.
Choix aléatoire d’un nombre entre 1 et 100.
La trajectoire de la chute d’une feuille d’un arbre.
1
Chapitre 1 : Introduction aux probabilités

Définition 3. (Univers)

Un résultat, ou une issue de l’expérience est une donnée issue de l’expérience aléatoire ; une

même expérience peut fournir différents résultats, suivant ce qu’on veut étudier de l’expérience.

L’univers, noté Ω, est l’ensemble des issues possibles d’une expérience. On l’appelle aussi ensemble

fondamental.

Une même expérience peut fournir plusieurs univers différents suivant ce qu’on veut en tirer.

Exemple.
• L’expérience aléatoire lancer une pièce de monnaie et observer la face apparente a pour univers
Ω" = 8 9:, ;<=: .
• L’expérience aléatoire consistant à lancer un dé deux fois de suite et observant chaque fois le
numéro apparent dans le coté supérieur a pour univers
Ω> = ? @" , @> avec @" est le résultat du 1LM lancer et @> résultat du 2è*- lancerP = 1,2,3,4,5,6 > .
• L’expérience aléatoire de tirer simultanément deux boules d’une urne contenant 5 boules
numérotées de 1 à 5, a pour univers
Ω> = ? 1,2 ; 1,3 ; 1,4 ; 1,5 ; 2,3 ; 2,4 ; 2,5 ; 3,4 ; 3,5 ; 4,5 P.

Intuitivement, un événement correspond à un groupement d’issues possibles vérifiant une certaine


propriété. Ainsi, il s’agit d’un ensemble d’issues, donc d’un sous-ensemble de l’univers.

Définition 4. (Evénement, définition intuitive)

Un événement est un sous-ensemble de Ω. Pour certaines raisons techniques, lorsque Ω n’est

pas fini, on est parfois amené à se restreindre et à ne pas considérer tous les sous-ensembles

comme des événements, ce que nous formalisons avec la notion de tribu.

Un évènement relatif à une expérience aléatoire est proposition sur les résultats de l’expérience.
L’approche ensembliste consiste à représenter un évènement par un sous-ensemble de l’univers dont
les éléments sont les résultats réalisant l’évènement.

Exemple. L’expérience aléatoire de tirer simultanément deux boules d’une urne contenant 5 boules
numérotées de 1 à 5, a pour univers Ω = ? 1,2 ; 1,3 ; 1,4 ; 1,5 ; 2,3 ; 2,4 ; 2,5 ; 3,4 ; 3,5 ; 4,5 P.
On définit l’évènement U= « les numéros des boules tirées sont pairs » et l’évènement V=« la
somme des numéros des boules tirées est 5 ». Les ensembles correspondants à ces évènements
sont :
U = ? , W ∈ Ω: i, j sont pairsP = ? 2,4 P et V = ? , W ∈ Ω: i + j = 5P = ? 1,4 ; 2,3 P.

2
Chapitre 1 : Introduction aux probabilités

La plupart des notions ensemblistes ont une traduction dans le langage des probabilités, afin de
mieux traduire leur interprétation intuitive.

Terminologie (Vocabulaire probabiliste)

Événement élémentaire, ou épreuve : un singleton ^ ⊂ Ω, c’est l’évènement réalisé par un seul

résultat de l’expérience.

Événement certain : l’événement Ω.

Événement impossible : l’événement ∅.

Événement contraire de l’événement U (ou négation): l’événement U̅ = Cb U.

U entraîne V si U ⊂ V.

Événement « U et V » : U ∩ V.

Événement « U ou V » : U ∪ V.

U et V sont dits incompatibles si ∩ V = ∅ .

Une famille U! , ∈ d est dite constituée d’événements deux à deux incompatibles si pour tout

, W ∈ d > tel que ≠ W, U! et Uf sont incompatibles.

Deux évènements sont incompatibles s’ils ne peuvent pas se réaliser simultanément

Exemple.
Une expérience aléatoire consiste à lancer deux dés identiques et observer leurs faces
supérieures. L’univers associé à cette expérience est

1,1 ; 1,2 ; 1,3 ; 1,4 ; 1,5 ; 1,6 ; 2,2 ; 2,3 ; 2,4 ; 2,5 ; 2,6 ;
Ω=g h.
3,3 ; 3,4 ; 3,5 ; 3,6 ; 4,4 ; 4,5 ; 4,6 ; 5,5 ; 5,6 ; 6,6

Soient les évènements A : « la somme des résultats des 2 dés vaut 4 », B : « aux moins l’un
des deux vaut 3 » et C : « les deux résultats sont de même parité ». En termes d’ensembles

U = i 1,3 ; 2,2 j , V = ? 1,3 ; 2,3 ; 3,3 ; 4,3 ; 5,3 ; 6,3 P et


k = ? 1,1 ; 1,3 ; 1,5 ; 2,2 ; 2,4 ; 2,6 ; 3,3 ; 3,5 ; 4,4 ; 4,6 ; 5,5 ; 6,6 P.
L’évènement « la somme des deux vaut 4 et aux moins l’un des deux vaut 3» correspond à
l’ensemble U ∩ V = ? 1,3 P.
L’évènement « la somme des deux vaut 4 ou aux moins l’un des deux vaut 3» correspond à
l’ensemble U ∪ V = ? 1,3 ; 2,3 ; 3,3 ; 4,3 ; 5,3 ; 6,3 ; 2,2 P.
L’évènement « aux moins l’un des dés donne est chiffre impair » et « les dés donnent en
somme 12 » est un évènement impossible qui correspond à l’ensemble vide ∅. On dit que les
évènements « aux moins l’un des dés donne est chiffre impair » et « les dés donnent en
somme 12 » sont incompatibles.

3
Chapitre 1 : Introduction aux probabilités

Définition 5. (Système complet d’événements) Un système complet d’événements est une famille

U! , ∈ d (tel que d ⊂ ℕ) formant une partition de Ω. Autrement dit :

i. Les événements U! sont non impossibles (réalisables ou possibles) ;

ii. la famille est constituée d’événements deux à deux incompatibles ;

iii. et ⋃!∈n U! = Ω.

Exemple.

Reprenons l’expérience aléatoire de l’exemple précédent. Si on définit la famille d’événements

U! , = 2, … ,12 telle que pour tout = 2, … ,12, U! : « la somme des résultats des deux dés vaut

i ». la famille d’événements U! , = 2, … ,12 est un système complet d’évènements.

2. o-algèbres d’événements (ou tribus)


Souvent, la définition de la mesure de probabilité sur tous les sous-ensembles de Ω, n’est pas
pertinente, ou peut poser des problèmes techniques. Pour cette raison, il peut être intéressant de
pouvoir ne définir la mesure de probabilité que sur une classe particulière de sous-ensembles de Ω.
On a besoin de définir un type de classe de sous-ensembles satisfaisant certaines exigences à laquelle
se restreindre. Ces exigences sont récapitulées dans la définition suivantes :

Définition 6. (o-algèbre, ou tribu)Soit Ω un univers (fini ou non). Une p-algèbre q d’événements sur

Ω (ou tribu) est un sous-ensemble q de Ω telle que :

i. Ω ∈ q;

ii. ∀U ∈ Ω , A ∈ q ⟹ U̅ ∈ q (stabilité par complémentation) ;

iii. Pour tout famille dénombrable U! , ∈ d , d ⊂ ℕ, d’éléments de q, ⋃!∈n U! est dans q (stabilité

par union dénombrable)

En particulier, la tribu des boréliens de ℝ , notée ℬ , est l’ensemble des intervalles de ℝ .

Proposition 1. (Propriétés des tribus) Soit q une tribu d’événements sur Ω.

i. ∅ ∈ q;

ii. ∀U, V ∈ q ⟹ U ∪ V ∈ q (stabilité par union finie) ;

iii. Pour tout famille dénombrable U! , ∈ d , d ⊂ ℕ, d’éléments de q, ⋂!∈n U! est dans q (stabilité

par union dénombrable) ; et

iv. ∀U, V ∈ q ⟹ U ∩ V ∈ q (stabilité par intersection finie).

4
Chapitre 1 : Introduction aux probabilités

Définition 7. (Espace probabilisable et événements)

Un espace probabilisable est un couple Ω, q , où Ω est un ensemble quelconque, appelé univers,

et q une p-algèbre d’événements sur Ω.

Les éléments de q sont appelés événements (de l’espace probabilisable Ω, q ).

3. Espaces probabilisés
a) Mesures de probabilité

Définition 8. (Mesure de probabilité) Soit Ω, q un espace probabilisable. Une mesure de

probabilité sur Ω, q est une application P: q ⟶ ℝ telle que :

i. ∀U ∈ q, 0 ≤ P U ≤ 1;

ii. P Ω = 1 ;

iii. (propriété de σ-additivité) Pour toute famille dénombrable U ∈{ d’événements deux à deux

incompatibles, ∑ ∈{ P U converge, et on a :

P }# U • = PU .
∈~ ∈~

Exemple.
Soit €Ω, Ω • un espace probabilisable avec Ω = 1,2,3,4,5,6 est l’univers de l’experience aléatoire :
jeter un dé et observer la face supérieure. On peut définir une mesure de probabilité P telleque
P: q ⟶ ℝ
|U|
U⟼ .
6

Proposition 2. (Propriétés de la probabilité) Soit P une mesure de probabilités sur Ω, q . Alors :

i. (Additivité) Pour tout couple U, V d’événements incompatibles, P U ∪ V = P U + P V ;

ii. P ∅ = 0;

iii. ∀U ∈ q, P U̅ = 1 − P U ;

iv. ∀U, V ∈ q, A ⊂ B ⟹ P V\U = P V − P U ;

v. ∀U, V ∈ q, A ⊂ B ⟹ P U ≤ P V ; et

vi. ∀U, V ∈ q, P U ∪ V = P U + P V − P U ∩ V .

Nous avons maintenant tout ce qu’il faut pour nous définir un cadre rigoureux pour nos probabilités.

5
Chapitre 1 : Introduction aux probabilités

Définition 9. (Espace probabilisé, ou modèle probabiliste de Kolmogorov) Un espace probabilisé est

un triplet Ω, q, P où Ω, q est un espace probabilisable, et P une mesure de probabilité sur Ω, q .

Voici un résultat commode pour décrire de façon rapide une mesure de probabilité.
Proposition 3. (Détermination d’une probabilité par l’image des singletons) Soit Ω un ensemble fini

ou dénombrable. Alors, une mesure de probabilité sur €Ω, Ω • est définie de manière unique par

la donnée d’une application …: Ω → [0,1] telle que ∑‰∈b … ^ = 1 et telle que P ^ =… ^ .

Exemple.
La mesure de probabilité de l’exemple précédent peut être définit comme suit
1
∀^ ∈ 1,2,3,4,5,6 : 8 ^ = .
6

b) Probabilités uniformes sur un univers fini

Soit Ω un univers fini. On considère l’espace probabilisable €Ω, Ω •.


D’après la proposition précédente, pour définir une mesure de probabilité P sur €Ω, Ω •, il suffit de
définir
P sur les singletons de sorte que la somme soit égale à 1. Voici un cas particulier très important :

Définition 10. (Probabilité uniforme sur un univers fini) La probabilité uniforme (ou équirépartition)

sur €Ω, Ω • est la probabilité définie par :


1
∀^ ∈ Ω, P ^ = .
|Ω|
On retrouve alors le résultat que vous utilisez intuitivement :
Théorème 9. (Formule de Laplace) Soit Ω, Ω , P l’espace probabilisé uniforme sur l’univers fini

Ω. Alors, pour tout U ∈ Ω :


|A| nombre de cas favorable
P A = = .
|Ω| nombre de cas possibles

Exemple. Dans une boite contenant 10 jetons numérotés de 1 à 10 indiscernables au toucher, on


tire au hasard un jeton. L’univers de cette expérience aléatoire est Ω = •1,10Ž. L’ensemble des
évènements est q = Ω . On associe à cette expérience l’espace probabilisable Ω, q sur lequel
on définit la probabilité uniforme P telle que :
1 1
∀ ∈ •1,10Ž, P = = .
|Ω| 10
|•|
Ainsi la probabilité de tout évènement U associé à cette expérience est donnée par P U = .
"
Ω, q, P est appelé espace probabilisé.

6
Chapitre 1 : Introduction aux probabilités

c) Evènement quasi-impossible et évènement quasi-certain

Définition 11. (Ensembles négligeables) Soit Ω, q, P un espace probabilisé, et soit ∈ q .

i. On dit que U est négligeable, ou presque-impossible, ou quasi-impossible si P U = 0.

ii. On dit que U est presque-certain ou quasi-certain si P U = 1.

iii. Une propriété est vraie presque sûrement si l’événement « la propriété est satisfaite » est

presque-certain.

Exemple. Un mobile se déplace aléatoirement sur un intervalle [−1,1] avec < > 0. On s’intéresse à
la position du mobile dans un instant donné. L’univers associé à cette expérience est Ω = [−1,1].
L’ensemble des évènements q = Ω , c’est l’ensemble des ensembles dont les élément sont des
points de [−1,1]. Sur l’espace probabilisable Ω, q , on définit la mesure de probabilité P telle que
pour tout point de [−1,1] :
+1
P€ −1, •=
2
où −1, est intervalle dont la borne inférieure et la borne supérieure sont −1 et , respectivement.
Sous l’espace probabilisé Ω, q, P , pour tout −1 ≤ ≤ 1, l’évènement : « le mobile est au point
y » est un évènement quasi-impossible car
P [0, ] = P [0, [ + P .
Puisque P [0, ] = P [0, [ , P = 0.
" " " "
L’évènement i− , 0, j : « le mobile est au point − , au point 0 ou au point » est un évènement
• > • >
quasi-impossible, car
1 1 1 1
P ‘g− , 0, h’ = P ‘g− h’ + P 0 + P ‘g h’ = 0.
3 2 3 2
" " " "
L’évènement [−1,1] ∖ i− • , 0, >j : « le mobile n’est pas aux points − •, 0 et » est évènement quasi-
>
certain car
1 1 1 1 1 1
P ‘[−1,1] ∖ g− , 0, h’ = P [−1,1] − P ‘[−1,1]⋂ g− , 0, h’ = 1 − P ‘g− , 0, h’ = 1.
3 2 3 2 3 2

7
Chapitre 1 : Introduction aux probabilités

II. Conditionnement et indépendance


1. Probabilités conditionnelles
On cherche maintenant à voir comment la connaissance de certaines informations sur le résultat
d’une expérience modifie les probabilités. Pour cela, on définit la probabilité conditionnelle d’un
événement U sachant que l’événement V est réalisé : la connaissance de la réalisation de V peut
influer sur les chances que U se réalise aussi.

Définition 12. (Probabilités conditionnelles) Soit Ω, q, P un espace probabilisé, U et V deux

événements de q tels que V ne soit pas presque impossible. Alors, la probabilité conditionnelle

de U en V (ou la probabilité de U sachant V), noté P U|V , est donnée par:


P U∩V
P U|V = .
P V

Cette définition se comprend bien pour la mesure uniforme : il s’agit de la proportion des éléments
de B qui satisfont A (c’est-à-dire la proportion des éléments de B qui sont dans A∩B).

Proposition 4. Soit V un événement non presque-impossible. Alors P . |V définit une mesure de

probabilité sur l’espace probabilisable Ω, q .

Exemple. Lancer un dé équilibré et observer le coté apparent. L’univers de cette expérience est Ω =
1,2,3,4,5,6 .
|5|
L’espace probabilisé est Ω, Ω , P telle que ∀ ∈ Ω :P = ”
. Sachant que le résultat obtenu
est pair, on définit une mesure de probabilité P . |V avec B est l’évènement que le résultat obtenu
soit pair, telle que ∀ ∈ Ω
| ∩ V|
P ∩V
6 | ∩ V|
P |V = = = .
|V|
P V 3
6
On remarque d’une part que les évènements incompatibles avec V sont de probabilité nulle par la
mesure de probabilitéP . |V , c’est-à-dire, il sont quasi-impossibles dans €Ω, Ω , P . |V •, et d’autre
part que les évènements réalisés par tous les éléments de V sont de probabilité égale à 1, c’est-
à-dire, il sont quasi-certains dans €Ω, Ω , P . |V •.

2. Indépendance
Deux événements U et V sont indépendants si la connaissance de l’un ne modifie pas la probabilité
de l’autre, donc si P U|V = P U et P V|U = P V . L’inconvénient de cette définition réside dans le fait
qu’elle n’est valable que sous une hypothèse de non quasi-impossibilité, afin de pouvoir considérer les
probabilités conditionnelles. On constate cependant que dans le cas de non quasi-impossibilité, les
deux égalités sont équivalentes à l’égalité : P U ∩ V = P U P V .
8
Chapitre 1 : Introduction aux probabilités

Définition 13. (Événements indépendants) Soit Ω, q, P un espace probabilisé, et U, V ∈ q> . Les

événements U et V sont indépendants si


P U∩V =P U ×P V .

Exemple. Lancer un dé équilibré deux fois de suite. L’univers associé à l’expérience est Ω =
1,2,3,4,5,6 > et l’espace probabilisable est q = Ω . Puisque les évènements élémentaires sont
équiprobable, on définit sur l’espace probabilisable Ω, q la mesure de probabilité uniforme P telle
que ∀ ∈ q :
| | | |
P = = .
|Ω| 36
Soient les évènements U : « que le résultat du 1er lancer soit multiple de 3 » et V : « que le résultat
du 2ème soit pair ». Ainsi U = 3,6 × 1,2,3,4,5,6 , V = 1,2,3,4,5,6 × 2,4,6 et U ∩ V = 3,6 × 2,4,6 .
"> " "– " ” "
P U = = , P V = = et P U ∩ V = = .
•” • •” > •” ”
U et V sont indépendants car
P U∩V 1/6 1 P U∩V 1/6 1
P U|V = = = = P U et P V|U = = = =P V .
P V 1/2 3 P U 1/3 2
On peut vérifier l’indépendance par
1 1 1
P U ×P V = × = =P U∩V .
3 2 6

Proposition 6. (Indépendance et complémentation) Si U et V sont indépendants, alors

i. U et Ṽ sont indépendants ;

ii. U̅ et V sont indépendants ; et

iii. U̅ et Ṽ sont indépendants.

Preuve. Sous l’hypothèse que U et V sont indépendants, c’est-à-dire : P U ∩ V = P U × P V , on a


P U ∩ Ṽ = P U − P U ∩ V = P U − P U × P V = P U × €1 − P V • = P U × P Ṽ
d’où U et Ṽ sont indépendants.

Définition 14. (indépendance Mutuelle pour une famille finie) Soit Ω, q, P un espace probabilisé,

et U" , U> , … , U ∈ q. Les événements U" , U> , … , U sont mutuellement indépendants si :

∀™ ⊂ •1, Ž, P š› Uf • = ž P€Uf •.
f∈œ f∈œ

Exemple. Lancer une pièce de monnaie quatre fois de suite et observer la figure apparente pour
chacun des lancers.
L’univers associé à cette expérience est Ω = ;, 8 Ÿ . On prend comme espace des évènements q =
Ω . On définit sur l’espace probabilisable Ω, q , étant donnés que les évènements élémentaires
| |
sont équiprobables, la fonction de probabilité uniforme P telle que ∀U ∈ q, P U = .
"”
ème
Soient pour tout = 1, … ,4, les évènement U! : « Obtenir une face au i lancer ». On a
9
Chapitre 1 : Introduction aux probabilités

Evènement Ensemble représentant l’évènement Probabilité


U" ; × ;, 8 × ;, 8 × ;, 8 1/2
1/2
U> ;, 8 × ; × ;, 8 × ;, 8
1/2
U• ;, 8 × ;, 8 × ; × ;, 8
1/2
UŸ ;, 8 × ;, 8 × ;, 8 × ;

U" ∩ U> ; × ; × ;, 8 × ;, 8 1/4

1/4
U" ∩ U• ; × ;, 8 × ; × ;, 8
1/4
U" ∩ UŸ ; × ;, 8 × ;, 8 × ;
1/4
U> ∩ U• ;, 8 × ; × ; × ;, 8
1/4
U> ∩ UŸ ;, 8 × ; × ;, 8 × ;
1/4
U• ∩ UŸ ;, 8 × ;, 8 × ; × ;

U" ∩ U> ∩ U• ; × ; × ; × ;, 8 1/8

1/8
U" ∩ U> ∩ UŸ ; × ; × ;, 8 × ;
1/8
U" ∩ U• ∩ UŸ ; × ;, 8 × ; × ;
1/8
U> ∩ U• ∩ UŸ ;, 8 × ; × ; × ;

U" ∩ U> ∩ U• ∩ UŸ ; × ; × ; × ; 1/16

Dans l’espace probabilisé Ω, q, P , les évènements U" , U> , U• et UŸ sont mutuellement indépendants
car
P U" ∩ U> = P U" × P U> , P U" ∩ U• = P U" × P U• , P U" ∩ UŸ = P U" × P UŸ , P U> ∩ U• = P U> ×
P U• , P U> ∩ UŸ = P U> × P UŸ , P U• ∩ UŸ = P U• × P UŸ , P U" ∩ U> ∩ U• = P U" × P U> × P U• ,
P U" ∩ U> ∩ UŸ = P U" × P U> × P UŸ , P U" ∩ U• ∩ UŸ = P U" × P U• × P UŸ , P U> ∩ U• ∩ UŸ =
P U> × P U• × P UŸ et P U" ∩ U> ∩ U• ∩ UŸ = P U" × P U> × P U• × P UŸ .

III. Les théorèmes fondamentaux du calcul des probabilités

1. Formule des probabilités totales


Soit Ω, q, P un espace probabilisé.

10
Chapitre 1 : Introduction aux probabilités

Définition 15. (Système quasi-complet d’événements) Soit Ω, q, P un espace probabilisé. On dit

une famille d’évènements U! , ∈ d de q (où d est dénombrable) est un système quasi-complet

d’événements si :

i. ∀ ∈ d : P U! ≠ 0 ;

ii. ∀ , W ∈ d avec ≠ W, P€U! ∩ Uf • = 0; et

iii. –

P U! = 1.
!∈n

Ainsi, la différence avec un système complet réside uniquement dans le fait que l’union des événements
n’est égale à Ω qu’à un ensemble négligeable près (l’union est presque-certaine et non certaine).

Exemple. Un mobile se déplace aléatoirement sur l’intervalle [0,1]. L’univers associé à cette expérience est
Ω = [0,1] et l’espace des évènements associé est [0,1] . On définit sur l’espace probabilisable Ω, q la
mesure de probabilité P telle que ∀[<, ¢] ⊂ [0,1] , P [<, ¢] = ¢ − < et on obtient l’espace probabilisé Ω, q, P .
On a pout tout 0 ≤ < ≤ 1, P <= P [<, <] = < − < = 0 d’où tout évènement élémentaire est quasi-impossible.
Même chose pour tout sous-ensemble fini de points de l’intervalle [0,1], <" , <> , <• , … , < ( ∈ ℕ∗ ), est aussi
quasi-impossible, on a
P <" , <> , <• , … , < = P <" ∩ <> ∩ <• ∩ … ∩ < = P <" + P <> + P <• + ⋯ + P < = 0.
Par conséquent, tout ensemble égal à [0,1] moins une partie finie de points de [0,1] est quasi-certain, par
" " " " ¥ • –
exemple les évènements ]0,1[, [0,1[ et [0,1] − i0, ¥ , Ÿ , • , > , – , Ÿ , ¦ , 1j sont quasi-certains.

" " " " • •


La famille d’évènements de q, i§0, –¨ , §– , •§ , ¨• , Ÿ¨ , §Ÿ , 1¨j est un système quasi-complet d’évènements car :
" " " " " " " " " " " ¥ " • •
i. P ©§0, ¨ª = P ©¨0, § ∖ i0, jª = P ©¨0, §ª − P ©i0, jª = − 0 = ≠ 0, P ©§– , •§ª = • − – = >Ÿ ≠ 0, P ©¨• , Ÿ¨ª = Ÿ −
– – – – – – –
" ¥ • • "

= "> ≠ 0 et P ©§Ÿ , 1¨ª = 1 − Ÿ = Ÿ ≠ 0 ;

" " " " " • " • " " " • " " " •
ii. P š§0,
«¬¬ ¨ ∩ §–¬®
–¬-¬¬
, •§• = P š§0,
«¬¬ ¨ ∩ ¨•¬®
–¬-¬¬
, Ÿ¨•=P š§0,
«¬¬ ¨ ∩ §Ÿ¬®
–¬-¬¬
, 1¨• = 0, P ©§– , •§ ∩ ¨• , Ÿ¨ª = P ©i•jª = 0, P 𧫬
, •¬-¬
– ¬
§ ∩ §¬, 1¨• =
Ÿ¬®
∅ ∅ ∅ ∅

" • •
0 et P š¨«¬
, Ÿ¬-¬
¨ ∩ §¬, 1¨• = 0 ; et
• ¬ Ÿ¬®

" " " " • • " " " " " • • " ¥ ¥ "
iii. P ©§0, –¨ ∪ § – , •§ ∪ ¨ • , Ÿ¨ ∪ §Ÿ , 1¨ª = P ©§0, –¨ª + P ©§– , •¨ª + P ©i•jª + P ©§• , Ÿ¨ª + P ©§Ÿ , 1¨ª = – + >Ÿ + 0 + "> + Ÿ = 1.

Théorème 10. (Formule des probabilités totales) Soit U! !∈n un système quasi-complet fini ou

dénombrable, tels que les événements U! ne sont pas presque-impossibles, et soit ∈ q . Alors

P V = P V|U! P U! .
!∈n

11
Chapitre 1 : Introduction aux probabilités

La formule des probabilités totales permet de retrouver une probabilité P V connaissant les probabilités
conditionnelles P V|U! .

Exemple. On dispose de six urnes en trois compositions:


• trois urnes (composition 1) avec 2 boules blanches et 3 noires chacune;
• deux urnes (composition 2) avec une boule blanche et 3 noires chacune ; et
• une urne (composition 3) avec 4 boules blanches et une noire.
Une boule est tirée au hasard d’une urne parmi les six urnes. On pose pour = 1,2,3, les
évènements U! : « tirer la boule d’urne de composition » et l’évènement B : « la boule
tirée soit blanche ».

2 3 1 2 4 1 5
P V = P V|U! P U! = P V|U" P U" + P V|U> P U> + P V|U• P U• = × + × + × = .
5 6 4 6 5 6 12
! "

Voici un cas particulier très important :


Corollaire (Formule des probabilités totales pour le système complet ¯, °̄ ) Soit U un événement

non quasi-impossible et non quasi-certain. Alors, pour tout événement V,

P V = P V|U P U + P V|U̅ P U̅ .

2. Formule des probabilités composées


La définition des probabilités conditionnelles permet d’exprimer la probabilité d’une intersection à
l’aide de probabilités conditionnelles :
P U ∩ V = P U P V|U .
Cette formule est à comprendre de la façon suivante : en considérant les événements U et V
comme successifs, pour obtenir U ∩ V, il faut d’abord obtenir U, puis, U étant obtenu (ce qui donne
la condition de la deuxième probabilité), il faut obtenir V. On pourrait bien sur continuer ainsi : si k
est un troisième événement, consécutif à U et V, une fois réalisé U ∩ V (ce qui donne la condition
de la troisième probabilité), il faut réaliser k. Ainsi :
P U ∩ V ∩ k = P U P V|U P k|U ∩ V .
De façon plus générale, on obtient :

Théorème 11. (Formule des probabilités composées) Soit > 2, et P U" ∩ U> ∩ … ∩ U " ≠ 0 (donc

U" ∩ U> ∩ … ∩ U " n’est pas presque-impossible). Alors :

P }› U! • = P U" × P U> |U" × P U• |U" ∩ U> × … × P U |U" ∩ U> ∩ … ∩ U " .


! "

L’intérêt de cette formule est de donner une formule pour le calcul des probabilités d’intersections
d’événements, notamment dans le cas d’une succession d’expérience. Cette formule dévoile toute son
utilité lorsque les événements considérés ne sont pas mutuellement indépendants.

12
Chapitre 1 : Introduction aux probabilités

Exemple. Une urne contient 7 boules vertes et 3 boules noires. On y effectue une suite des
tirages sans remise d’une boule jusqu’à obtenir une boule noire. Le nombre de boules vertes étant
7 le nombre de tirages possible est 8.
Posons pour = 1, … ,8, les évènements U! « la boule tirée au ième soit noire ». Quelle est la
probabilité qu’on obtienne une boule noire pour la première fois au 3ème tirage. Il s’agit de
P ˜˜˜ ˜˜˜> ∩ U• . En utilisant la formule des probabilités composées
U" ∩ U
7 6 3 7
P ˜˜˜
U" ∩ ˜˜˜
U> ∩ U• = P ˜˜˜
U" × P ˜˜˜ ˜˜˜" × P U• |U
U> |U ˜˜˜" ∩ ˜˜˜
U> = × × = .
10 9 8 40

3. Formules de Bayes
La troisième formule permet d’inverser des conditions. Sa version simple découle de façon directe de
la définition d’une probabilité conditionnelle.

Théorème 12. (Formule de Bayes simple) Soit U et V deux événements tels que P U > 0 et P V >

0. Alors
P V|U P U
P U|V = .
P V

De façon plus générale, la connaissance des probabilités d’un système complet, et des probabilités
d’un événement V conditionnées au système complet permet de retourner une à une les probabilités
conditionnelles:
Théorème 13. (Formule de Bayes sur un système complet) Soit U" , U> , … , U un système quasi-

complet fini ou dénombrable, et V un événement non quasi-impossible tel que pour tout ∀1 ≤ ≤

, P U! ≠ 0. Soit W ∈ 1,2, … , . Alors :

P€V³Uf •P€Uf •
P€Uf ³V• = .
∑´ " P V|U P U

Le système U" , U> , … , U représente souvent une liste de causes pouvant amener l’événement V lors
d’une étape suivante de l’expérience. Il est alors généralement facile de déterminer la probabilité
qu’une certaine conséquence V ait lieu, sachant que la cause U! a eu lieu, c’est-à-dire la probabilité
conditionnelle P V|U! (on respecte dans ce cas l’ordre temporel).

Exemple. On considère une urne contenant 10 boules numérotées de 1 à 10.


On tire une boule au hasard dans l’urne (toutes les boules sont équiprobables). On note µ le numéro
de cette boule.
Si µ est égal à 1, on arrête les tirages.
Si µ est supérieur ou égal à 2, on enlève de l’urne les boules numérotées de µ à 10 (il reste donc les
boules numérotées de 1 à µ − 1), et on effectue à nouveau un tirage dans l’urne.
On répète ces tirages jusqu’à l’obtention de la boule numéro 1.

13
Chapitre 1 : Introduction aux probabilités

On définit pour tout = 1, … ,10 et pour tout µ = 1, … ,10, les évènements


ème
U! = "tirer la boule numéro k au i tirage".

Par exemple, U> désigne l’évènement de tirer la boule numéro 3 au deuxième tirage.
1. Déterminer la probabilité d’avoir le numéros µ au deuxième tirage sachant qu’on a eu le chiffre i au
premier tirage.
2. Les 10 évènements U"! pour = 1, … ,10, forment-ils un système quasi-complet d’événements ?
3. En déduire la probabilité de U> , ∀µ ∈ •1,9Ž.
4. Justifier sans calculer, pourquoi ?
a) ∀µ ∈ •1,9Ž: P€U" ·" ³U> • = 1.
b) ∀µ ∈ •1,10Ž: P€U" ·" ³U" • = 0.
5. Calculer la probabilité que la probabilité qu’on ait tiré la boule n° k (pour µ = 2, . . ,10) au 1er sachant
que la boule tirée au 2ème tirage est la boule n° 1.

Solution :
1. P€U> ³U"! •= ? On distingue deux cas :
• Si ≤ µ, on ne peut pas obtenir la boule numéro k au 2ème tirage car elle est parmi les boules enlevées
de la boule.
"
• Si > µ, il en reste dans l’urne − 1 boules équiprobables au tirage ainsi dans ce cas P€U> ³U"! • = ! ".
1
= ¸ − 1 si > µ .
P€U> ³U"! •
0 si ≤ µ
2. Les 10 évènements U"" , U"> , U"• ,…, U"" forment un système quasi-complet d’événements car :
i. ces évènements ne sont pas quasi-impossibles puisque au 1er tirage les 10 boules sont dans l’urne,
ii. les évènements sont incompatibles car on en tire qu’une seule boule d’où pour tout ≠

W: P }U
«¬∩¬U
!- ®f • = 0, et

iii. U"" ∪ U"> ∪ U"• ∪ … ∪ U"" est un évènement certain puisque le numéro de la boule tirée est forcément

" > • "


1, 2, 3,… ou 10 d’où P }U" ∪ U" ∪ U" ∪ … ∪ U" • = 1.
«¬¬¬¬¬¬¬-¬¬¬¬¬¬¬®
b
3. La probabilité de U> , ∀µ ∈ •1,9Ž. Puisque Les évènements U"" , U"> , U"• ,…, U"" forment un système
complet d’événements et en utilisant la formules des probabilités totales
" " " "
1 1 1 1
P€U> • = P€U"! •P€U> ³U"! • = P€U!> ³U"! • = P€U> ³U"! • = .
10 10 10 i−1
! " ! " ! ·" ! ·"
Pour µ = 1
"
1 1 7129
P U"> = = .
10 i − 1 25200
! >
Pour µ = 2
"
1 4609
P U>> = P€U>> ³U"! • = .
10 25200
! •

14
Chapitre 1 : Introduction aux probabilités

… et pour µ = 9
1 1
P U¦> = × P U¦> ³U"" = .
10 90
4. Justifier sans calculer :
a) ∀µ ∈ •1,9Ž: P€U" ·" ³U> • = 1 car si on obtient à un tirage donné la boule numéro 2 on enlève toutes
les boules de l’urne sauf la boule numéro 1 qui sera forcément la boule qu’on tira au tirage suivant.
b) ∀µ ∈ •1,10Ž: P€U" ·" ³U" • = 0 car si on tire au 1er tirage la boule n° k on ne effectuera pas plus de k
tirages ainsi le tirage n° k+1 n’aura pas lieu.
5. La probabilité que la probabilité qu’on ait tiré la boule n° k au 1er sachant que la boule tirée au 2ème
tirage est la boule n° 1. Il s’agit de P€U" ³U"> •. En utilisant la formule de Bayes,
1 1
P€U "
³U • × P€U • × 10 2520
= µ−1
> " "
P€U" ³U"> • = " = .
! !
∑! " P€U" •P€U> ³U" • 7129 7129 µ − 1
25200
µ 2 3 4 5 9 10
2520 1260 840 630 315 280
P€U" ³U"> •
7129 7129 7129 7129 7129 7129

15
Chapitre 2 : Notion de variables aléatoires réelles

Chapitre 2 : Notion de variables aléatoires réelles

I. Introduction et définition

1. Variables aléatoires réelles

Définition. Soit Ω, un espace probabilisable. Nous appelons variable aléatoire réelle (v.a.r.)
toute application de Ω dans ℝ telle que : pour tout intervalle de ℝ, l’ensemble =
ω ∈ Ω| ω ∈ est un événement de .

Notations
Les variables aléatoires sont notées avec des lettres majuscules et les quantités
déterministes avec des lettres minuscules. Exemple : = .
Nous notons = Ω l’ensemble des valeurs prises par la variable aléatoire définiesur
l’espace probabilisé Ω, , P .
Et pour tous nombres réels < :
L’événement = ω ∈ Ω: ω = se note = .
L’événement −∞, = ω ∈ Ω: ω ≤ se note ≤ .
L’événement , = ω ∈ Ω: a < ω ≤ se note a < ≤ .
Exemple 1.
Soit ℰ une expérience aléatoire qui consiste à effectuer deux tirages sans remise d’urne
contenant 10 jetons numérotés de 1 à 10.
L’univers associé à cette expérience est Ω = , avec , ∈ #1,10& et ≠ (où est
er ème
numéro obtenu au 1 tirage et est celui du 2 ). L’ensemble des évènements est =) Ω .
Ainsi Ω, est un espace probabilisable associé à cette expérience.

Soit une variable aléatoire définie sur Ω tel que ∀ , ∈ Ω: + , ,= + .


L’ensemble des valeurs de cette variable est Ω = 3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19 .
• L’évènement = 10 est équivalent à l’événement
10 = , ∈ Ω: + = 10 = 1,9 ; 2,8 ; 3,7 ; 4,6 ; 6,4 ; 7,3 ; 8,2 ; 9,1 .
• L’évènement ≤ 5 est équivalent à l’événement
−∞, 5 = , ∈ Ω: + ≤ 5 = 1,2 ; 1,3 ; 1,4 ; 2,1 ; 2,3 ; 3,1 ; 3,2 ; 4,1 .
• L’évènement 4 < ≤ 6 est équivalent à l’événement
4,6 = 8 , ∈ Ω: 4 < + , , ≤ 69 = 1,4 ; 1,5 ; 2,3 ; 2,4 ; 3,2 ; 4,1 ; 4,2 ; 5,1 .
L’évènement = 4 ou = 18 est équivalent à l’événement
4,18 = , ∈ Ω: + = 4 <= + = 18 = 1,3 ; 3,1 ; 8,10 ; 10,8 .

Soit > une variable aléatoire définie sur Ω tel que ∀ , ∈ Ω: + , , = max , .
L’ensemble des valeurs de cette variable est > Ω = 2,3,4,5,6,7,8,9,10 .
• L’évènement > = 5 est équivalent à l’événement

1
Chapitre 2 : Notion de variables aléatoires réelles

> 5 = , ∈ Ω: max , = 5 = 1,5 ; 2,5 ; 3,5 ; 4,5 ; 5,1 ; 5,2 ; 5,3 ; 5,4 .
• L’évènement > ≤ 3 est équivalent à l’événement
> −∞, 3 = , ∈ Ω: max , ≤3 = 1,2 ; 1,3 ; 2,1 ; 2,3 ; 3,1 ; 3,2 .

Soit A une variable aléatoire définie sur Ω tel que ∀ , ∈ Ω: A+ , ,=| − |.


L’ensemble des valeurs de cette variable est A Ω = 1,2,3,4,5,6,7,8,9 .
• L’évènement A ≥ 7 est équivalent à l’événement

A C7, +∞C = , ∈ Ω: | − | ≥ 7
= 1,8 ; 1,9 ; 1,10 ; 2,9 ; 2,10 ; 3,10 ; 8,1 ; 9,1 ; 9,2 ; 10,1 ; 10,2 ; 10,3 .

2. Fonction de répartition

Définition. Soient Ω, , P un espace probabilisé et une variable aléatoire réelle définie sur Ω.
On appelle fonction de répartition de la variable aléatoire D la fonction numérique réelle ED
définie par
∀F ∈ ℝ, GH F = P ≤F .

Propriétés de la fonction de répartition : Soit GH la fonction de répartition d’une variable


aléatoire réelle :
i. ∀F ∈ ℝ, 0 ≤ GH F ≤ 1.
ii. GH est une fonction croissante sur ℝ.
iii. lim GH = 0 et lim GH = 1.
K→ M K→NM
iv. GH est continue à droite et admet une limite à gauche en tout point de ℝ, c-à.d, pour tout
nombre réel O , lim
P
GH = GH O et !∃T ∈ ℝ, tel que lim
V
GH = T.
K→KQ K→KQ
v. Pour tous nombres réels ≤ , nous avons P < ≤ = GH − GH .

II. Etude du cas discret


1. Variables aléatoires discrètes

Définition. Soient Ω, un espace probabilisable et une variable aléatoire réelle définie sur
Ω. Nous appelons variable aléatoire discrète (v.a.d.) si l’ensemble de ses valeurs Ω , est
dénombrable.

Un ensemble W est dénombrable s’il existe une application bijective de X dans ℕ. Un ensemble
dénombrable est donc infini.
Un ensemble W est au plus dénombrable s’il existe une application bijective de E dans une partie
finie de ℕ.

2
Chapitre 2 : Notion de variables aléatoires réelles

a) Loi d’une variable aléatoire discrète

Définition. Soit une variable aléatoire discrètes définie sur un espace probabilisé Ω, , P .
Nous appelons loi de la variable aléatoire D la donnée de la suite numérique +P =Z =
[H Z ,\∈H ]
telle que
1. ∀Z ∈ Ω , [H Z > 0 et ∀Z ∉ Ω , [H Z = 0 ;
2.
` [H Z = 1 ;
\∈H ]
3. ∀F ∈ ℝ,
GH F = P ≤ F = ` [H Z .
\ab
\∈H ]

Pour tout nombre réel F, notons par Z , Z , … , Zd = Ω ∩ −∞, F l’ensemble des éléments de
Ω inférieurs à F, ainsi nous pouvons écrire
d

GH F = ` [H Zf = [H Z + [H Z + ⋯ + [H Zd .
fg

Exemple 2. Soit un dé ayant deux faces marquées par le chiffre ‘1’, deux par le chiffre ‘2’, une
marquée par le chiffre ‘3’ et une marquée par le chiffre ‘4’. Nous lançons le dé et nous
observons le chiffre marqué sur la face supérieure. L’ensemble des résultats possibles est Ω =
1,2,3,4 avec P 1 = i, P 2 = i, P 3 = j et P 4 = j.
Soit une variable aléatoire définie par, ∀k ∈ Ω : k = k mod 3.
Nous obtenons par calcul, 1 = 1, 2 = 2, 3 = 0 et 4 = 1 d’où Ω = 0,1,2 qui est
un ensemble au plus dénombrable (car il est fini) d’où est une variable aléatoire discrète.
Loi de [H :
[H 0 = P = 0 = P+ 0 ,=P 3 = j.
[H 1 = P = 1 = P+ 1 , = P 1,4 = .
[H 2 = P = 2 = P+ 2 ,=P 2 = i.

Le diagramme en bâtons de

3
Chapitre 2 : Notion de variables aléatoires réelles

Fonction de répartition de GH :
Pour F < 0 : 0,1,2 ∩ −∞, F = ∅ d’où
GH F = ` [H Z = 0.
\ab
Pour 0 ≤ F < 1 : 0,1,2 ∩ −∞, F = 0 d’où
1
GH F = ` [H Z = [H 0 = .
6
\ab
Pour 1 ≤ F < 2 : 0,1,2 ∩ −∞, F = 0,1 d’où
2
GH F = ` [H Z = [H 0 + [H 1 = .
3
\ab
Pour F ≥ 2 : 0,1,2 ∩ −∞, F = 0,1,2 d’où
GH F = ` [H Z = [H 0 + [H 1 + [H 2 = 1.
\ab
Ainsi, nous avons
0 si F < 0
1/6 si 0 ≤ F < 1
GH F = n .
2/3 si 1 ≤ F < 2
1 si F ≥ 2
Le graphe de GH :

2. Moments d'une variable aléatoire discrète

Soient Ω, , P un espace probabilisé et une variable aléatoire discrète (v.a.d.) définie sur Ω.
Ω = f |q ∈ avec une partie de ℕ ou de ℤ. Nous posons P = f = [H f .

4
Chapitre 2 : Notion de variables aléatoires réelles

a) Espérance mathématique

Définition. Nous disons que la variable aléatoire admet une espérance mathématique lorsque
Ω est fini ou lorsque nous avons convergence de la somme ∑f∈H ] | f [H f |.
Nous appelons alors espérance mathématique de X, la moyenne pondérée notéet et définie
par
t = ` f [H f .
f∈H ]

Notation : uv Ω, , P désigne l'ensemble des variables aléatoires discrètes définies sur Ω et


admettant une espérance mathématique. C'est un ℝ-espace vectoriel.

Remarque : Lorsque ∑f∈w| f [H f | n’existe pas nous disons que ne possède pas d'espérance
mathématique.

Propriétés de l’espérance mathématique d’une variable aléatoire discrète

Soient et > deux variable aléatoires discrètes ayant des espérances mathématiques sur un
espace Ω, ℱ, P et la fonction y : Ω → ℝ alors nous avons les propriétés :

i. Pour tout réel


t = ` ∙ [H f = ` [H f = .
f∈H ] f∈H ]

ii. Si lorsque ∑f∈w|y f [H f | existe l’espérance mathématique de y , notée t+y ,, est


donnée par

t+y ,= ` y f ∙ [H f .
f∈H ]

{
En particulier lorsque y = , pour tout [ ∈ ℕ∗ , t {
est dit moment d’ordre } de la variable
aléatoire . Dans ce cas, on dit que admet un moment d’ordre [.

iii. Linéarité de l’espérance : Pour tous réels et


t + > = t + t > .
Exemple 3. Reprenons l’exemple 2 précédent. Loi de est donnée par
1 1 1 2 1
[H 0 = , [H ~ • = et [H ~ • = .
6 5 2 5 3
L’espérance mathématique de
1 1 2 2 1 2 7
t = ` f [H f = 0 × [H 0 + × [H ~ • + × [H ~ • = + = .
5 5 5 5 10 15 30
f∈ , ,i
Le moment d’ordre 3 de
i i
1 i 1 2 i 2 1 8 19
t = ` f [H f = 0i × [H 0 + ~ • × [H ~ • + ~ • × [H ~ • = + = .
5 5 5 5 250 375 750
f∈ , ,i

5
Chapitre 2 : Notion de variables aléatoires réelles

b) Variance et écart-type

Définition. Une variable aléatoire discrète admet une variance lorsque admet un moment
d'ordre 2 (convergence de ∑f∈H ] [H f ). Dans ce cas, la variance de vaut
•H = ‚ar = t „+ − t , ….

Nous appelons écart-type de la v.a.d : •H = †‚ar .

Propriété de la variance

Soient X un variable aléatoire admettant une variance et , ∈ ℝ.

i. ‚ar =t − +t , ;
ii. ‚ar =0;
iii. ‚ar + = ‚ar .

Exemple 4. Reprenons la variable aléatoire X de l’exemple 2. Nous avons


‚ar = t „+ − t , … = `+ f −t , [H f
f∈w
7 1 7 1 2 7 2 17
= ~0 − • [H 0 + ~ − • [H ~ • + ~ − • [H ~ • = .
30 5 30 5 5 30 5 900

6
Chapitre 2 : Notion de variables aléatoires réelles

3. Lois de probabilités discrètes usuelles


a) Loi de Bernoulli de paramètre }

Définition. Soit ∈ C0,1 . Une variable aléatoire suit une loi de Bernoulli de paramètre }, notée
‡ } , si la variable aléatoire prend la valeur 1 avec la probabilité [ et la valeur 0 avec la
probabilité 1 − [ = ˆ.

La loi de probabilité et la fonction de répartition d’une variable aléatoire discrète qui suit une loi
de Bernoulli de paramètre 0 < [ < 1 est de la forme :

[ si Z = 1 0 si F < 0
[H Z = ‰1 − [ si Z = 0 . GH F = ‰ 1 − [ si 0 ≤ F < 1.
0 sinon 1 si F ≥ 1

L’écriture ↝ ‡ } signifie que la variable aléatoire X suit une loi de Bernoulli de paramètre }.
Dans ce cas, nous avons : t = [ et Œ • = [ˆ = [ 1 − [ .

Exemple 5. Jeter un dé équilibré et observer le numéro inscrit sur la face supérieure.


L’univers associé à cette expérience est Ω = #1,6&. Prenons comme espace des évènements =) Ω .
Puisque les faces sont équiprobables (de même probabilité), il convient de définir sur Ω, la probabilité
uniforme P telle que ∀W ∈ :
|W| |W|
P W = =
|Ω| 6
1 si k = 6
Soit une variable aléatoire discrète sur Ω, telle que k =Ž .
0 si k ∈ 1,2,3,4,5,6
|j|
Cette variable suit une loi de Bernoulli de paramètre : =P =1 =P 6 = . On écrit ↝ ℬ „j….
j j j

b) Loi uniforme discrète (uniforme finie)

Définition. Soit • ∈ ℕ∗. Une variable aléatoire suit une loi uniforme discrète si la variable
aléatoire prend • valeurs possibles Z , Z , … , Zd avec pour tout q ∈ #1, •& la probabilité de Zf
égale à 1⁄•.

Pour tous entiers ’ < , l’écriture ↝ “#’,”& signifie que la variable aléatoire D suit une loi
uniforme discrète sur #’, ”&. Dans ce cas,

+ − − +2
t = et Var = .
2 12

Remarque 1 : La loi uniforme discrète sur #v, –& peut s'appliquer à toute situation aléatoire à •
issues équiprobables dès que celles-ci peuvent être associées aux nombres 1,2, … , •. Nous avons
alors

•+1 • −1
t = et Var = .
2 12

7
Chapitre 2 : Notion de variables aléatoires réelles

Remarque 2: Si une variable aléatoire discrète suit une loi uniforme discrète sur #’, ”&, avec
, ∈ ℕ et < , alors la variable aléatoire discrète > = − + 1 suit une loi uniforme sur
#v, ” − ’ + v&.

La loi de probabilité et la fonction de répartition d’une variable aléatoire discrète qui suit une loi
une loi uniforme discrète sur l’intervalle d’entiers #v, –& est de la forme :

1 0 si F < 1
[H Z = ‰ • si Z ∈ #1, •&. ˜b™
GH F = — d si 1 ≤ F < •.
0 sinon
1 si F ≥ •

Exemple 6. D’une urne contenant dix boules numérotées de 1 à 10, on tire au hasard une boule
et on observe le numéro inscrit sur la boule. L’univers associé à cette expérience est Ω = #0,10&.
Sur l’espace probabilisable +Ω, ) Ω ,, on définit la fonction probabilité uniforme P telle que ∀W ∈
) Ω :
|W|
P W = .
10
La variable aléatoire discrète , définie par ∀k ∈ Ω, k = k, suit une loi uniforme discrète sur
#1,10& et on écrit ↝ š# , O& .

c) Loi binomiale de paramètres – et }

Définition. Soit n un entier naturel non nul et [ ∈ C0,1 . Une variable aléatoire D suit une loi
binomiale de paramètres – et }, notée ℬ •, [ , si la variable aléatoire prend la valeur
Z ∈ #0, •& avec la probabilité égale à
C\d [\ 1 − [ d \
.

La loi de probabilité et la fonction de répartition d’une variable aléatoire discrète qui suit une loi
binomiale de paramètres • ∈ ℕ∗ et 0 < [ < 1 est de la forme :

Z • •−Z
[H Z = ŽCZ [ 1 − [ si Z ∈ #0, •& 0 si F < 0
. •
0 sinon GH F = —∑˜b™
\gO CZ [Z 1−[ •−Z si 0 ≤ F < • .
1 si F ≥ •
L’écriture ↝ ‡ –, } signifie que la variable aléatoire D suit une loi binomiale de paramètres n et
}. Dans ce cas, nous avons : t = • [ et Œ • = • [ 1 − [ = • [ ˆ.

Exemple 7. Une boite contient 10 jetons dont 4 sont rouges et 6 sont verts. On effectue une
suite de 3 tirages avec remise d’un jeton et on observe la couleur du jeton tiré pour chaque
tirage. L’univers associé à cette expérience est (on note par R et V les couleurs rouge et
verte) :
Ω = œ, œ, œ ; Œ, œ, œ ; œ, Œ, œ ; Œ, Œ, œ ; œ, œ, Œ ; Œ, œ, Œ ; œ, Œ, Œ ; Œ, Œ, Œ .
Sur l’espace +Ω, ) Ω ,, on définit la variable aléatoire qui est égale au nombre de jetons
verts tirés. Les tirages étant effectués sous les mêmes conditions (mêmes configurations des
jetons), les tirages sont mutuellement indépendants.

8
Chapitre 2 : Notion de variables aléatoires réelles

k • k k k • k k
2 i 3 2
œ, œ, œ ~ • 0 œ, œ, Œ ~ • × ~ • 1
5 5 5
3 2 3 2
Œ, œ, œ ~ • × ~ • 1 Œ, œ, Œ ~ • ×~ • 2
5 5 5 5
3 2 3 2
œ, Œ, œ ~ • × ~ • 1 œ, Œ, Œ ~ • ×~ • 2
5 5 5 5
3 2 3
Œ, Œ, œ ~ • ×~ • 2 Œ, Œ, Œ ~ • 3
5 5 5

On a Ω = #0,3& et la loi de probabilité de , [H , est telle que


i
0 i O i O
• [H 0 = P =0 =P œ, œ, œ = „ž… = C3 „ž… × „ž… ;
i i i
• [H 1 = P =1 =P Œ, œ, œ ; œ, Œ, œ ; œ, œ, Œ = „ž… × „ž… + „ž… × „ž… + „ž… × „ž… =
i i
C13 „ž… × „ž… ;
i i i
• [H 2 = P =2 =P Œ, Œ, œ ; Œ, œ, Œ ; œ, Œ, Œ = „ž… × „ž… + „ž… × „ž… + „ž… × „ž… =
i i
C23 „ž… × „ž… ;
i i 3 i i i i
• [H 3 = P =3 =P Œ, Œ, Œ = „ž… = C3 „ž… × „ž… ; et
• ∀Z ∉ #0,3&, [H Z = P =Z = P ∅ .
i i
D’où suit la loi binomiale de paramètre 3 et et on écrit ↝ ℬ „3, ž….
ž
i Ÿ i ž
t =3מ=ž et Œ • =3ממ= .
ž

d) Loi géométrique de paramètre }

Définition. Soit [ ∈ 0,1C. Une variable aléatoire suit une loi géométrique de paramètre }, notée
¡ [ , si la variable aléatoire prend la valeur Z ∈ ℕ∗ avec la probabilité égale à
\
1−[ [.
Remarques : Cette loi sert généralement lorsque nous nous intéressons au temps d’attente du
premier succès, c’est-à-dire au nombre d’essais nécessaires pour obtenir un succès, lors d’une
succession d’expériences aléatoires indépendantes n’ayant que deux issues possibles : le succès
avec une probabilité [ et l’échec avec une probabilité ˆ = 1 − [.

Propriétés : L’espérance et la variance d’une variable aléatoire suivant une loi géométrique de
{
paramètre [ sont égales respectivement à t = { ¢F Œ • = .

La loi de probabilité et la fonction de répartition d’une variable aléatoire discrète qui suit une loi
géométrique de paramètre 0 < [ < 1 est de la forme :

\
[ si Z ∈ ℕ∗ . 0 si F < 1
[H Z = Ž 1 − [ GH F = Ž ˜b™
0 sinon 1− 1−[ si F ≥ 1
9
Chapitre 2 : Notion de variables aléatoires réelles

où ˜F™ désigne la partie entière de t.

Exemple 8. On jette un dé équilibré et on observe le numéro inscrit sur la face supérieure si ce


numéro est multiple de 3 on s’arrête sinon on répète le jet du dé jusqu’à l’obtention d’un
numéro multiple de 3. Soit la variable aléatoire discrète égale au nombre de jets effectués.
Soit pour tout q ∈ ℕ∗ , l’évènement ¤f : « le numéro obtenu au q ème jet soit multiple de 3 ». On a
• si Z ∉ ℕ∗ : [H Z = P = Z = 0 ; et
• ∗
si Z ∈ ℕ : [H Z = P = Z = P ¥¥¥
¤ ∩¤ ¥¥¥ ∩ … ∩ ¤
¥¥¥¥¥¥
\ ∩ ¤\ … 1
Les évènements ¤ ,¤ ,…,¤\ et ¤\ étant mutuellement indépendants, 1 devient
2 \ 1
[H Z = P ¥¥¥ ¥¥¥ × … × P ¤
¤ ×P ¤ ¥¥¥¥¥¥
\ × P ¤\ = ~ • × .
3 3
\
Ainsi la loi de probabilité de est donnée par [H Z = ¦„i… × i si Z ∈ ℕ∗
0 sinon
La variable aléatoire est de loi géomètrique de paramètre et on écrit ↝ ¡ „ ….
i i

e) Loi binomiale négative de paramètres § et }

Définition. Soient [ ∈ 0,1C et • ∈ ℕ∗ . Une variable aléatoire suit une binomiale négative de
paramètres } et §, notée ¨‡ §, } , si la variable aléatoire prend la valeur Z ∈ ℕ ∩ C•, +∞C
avec la probabilité égale à
C\© 1−[ \ © ©
[ .

La loi binomiale négative est la loi du nombre de répétitions indépendantes nécessaires pour
obtenir • succès. La loi de probabilité et la fonction de répartition d’une variable aléatoire
discrète qui suit une loi binomiale négative de paramètres • ∈ ℕ∗ 0 < [ < 1 est de la forme :

© \ © ©
[ si Z ∈ ℕ ∩ C•, +∞C. 0 si F < •
[H Z = ŽC\ 1−[
˜b™
0 sinon GH F = n .
` C\© 1−[ \ © ©
[ si F ≥ •
\g©
Propriétés : L’espérance et la variance d’une variable aléatoire suivant une loi binomiale
négative de paramètres [ et • ( ↝ ¨‡ §, } ) sont égales respectivement à

• • 1−[
t = et Œ • = .
[ [

Exemple 10. Un candidat à un concours comportant une série de questions supposées


mutuellement indépendantes et dont le nombre n’est pas fixé. On suppose que probabilité qu’il
réponde juste à n’importe quelle de ces questions est i. Ce candidat est admis s’il répond juste
à 5 questions. Quelle est la probabilité qu’il lui faut au moins 10 question pour qu’il réussisse ?
suit une loi binomiale négative de paramètres 5 et i. Il s’agit de calculer P ≤5 =G 5 :
O
2 \ 1 8390
GH 5 = ` C\ ~ • ~ • = ≈ 0,426 ….
3 3 19683
\gž

10
Chapitre 2 : Notion de variables aléatoires réelles

f) Loi de Poisson de paramètre λ

Définition. Soit « > 0. Une variable aléatoire suit une loi de Poisson de paramètre ¬, notée
) « , si la variable aléatoire prend la valeur Z, Z ∈ ℕ avec la probabilité égale à
«\
exp −« .
Z!
Remarque. La loi de Poisson est utilisée pour décrire plusieurs types de phénomènes comme le
nombre d’appels reçus par un standard téléphonique pendant une période donnée.
Propriétés : L’espérance et la variance d’une variable aléatoire suivant une loi de Poisson de
paramètre « sont égales respectivement à t = « ¢F Œ • = «.

La loi de probabilité et la fonction de répartition d’une variable aléatoire discrète qui suit une loi
de Poisson de paramètre « > 0 est de la forme :

«Z 0 si F < 0
[H Z =‰exp −« si Z ∈ ℕ. ˜b™
Z! GH F = n «Z
0 sinon ` exp −« si F ≥ 0
Z!
\gO
où ˜F™ désigne la partie entière de t.

Exemple 10. Dans une usine, le nombre mensuel moyenne de pannes de ses machines est
estimé à 5 pannes par mois. Soit la variables aléatoire donnant le nombre de pannes
occurrentes dans un mois choisi au hasard. Cette variable aléatoire discrète suit une loi de
Poisson de paramètre 5.
ž® ž
La probabilité que le nombre de pannes soit 3 est [H 3 = exp −5 = j ¯°± ž ≈ 0,14.
i!

11

Vous aimerez peut-être aussi