Cours
Cours
a) Théorème du binôme. Les nombres C sont souvent appelés coefficients binomiaux en raison de
leur rôle dans le théorème du binôme.
Théorème 8. (Binôme de Newton) Pour tous réels non nulles et et pour tout entier naturel
non nul , on a
+ = C .
Exemple.
Soit un ensemble avec | | = > 0. Déterminons le nombre de sous ensemble de .
Les sous-ensembles de sont de cardinaux 0,1,2,3, … , − 1 ou . Pour un donné appartenant à
0,1, … , le nombre de sous-ensemble de à éléments est C . Notons par ! l’ensemble
des sous-ensembles de à éléments. Puisque le cardinal d’un ensemble est unique, la famille
d’ensemble , " ,…, " , est deux-à-deux disjoints. En plus, on a
# ! = ∪ " ∪ …∪ " ∪ =
!
où désigne l’ensemble des sous-ensembles de . En utilisant l’additivité, on obtient
'()*+,- /+ 0 ô*-
/- 2-34(
%# ! %= ! = C! = C ! 1! 1 !
=
& 1+1 = 2|5| .
! ! " ! " ! "
Une expérience aléatoire, notée ℰ, est une donnée intuitive : c’est une expérience dont le résultat
ne dépend que du hasard.
Bien que dans la plupart des cas, on connait l’ensemble des résultats possibles, on ne peut pas
prévoir le résultat pour chaque réalisation de l’expérience.
Définition 3. (Univers)
Un résultat, ou une issue de l’expérience est une donnée issue de l’expérience aléatoire ; une
même expérience peut fournir différents résultats, suivant ce qu’on veut étudier de l’expérience.
L’univers, noté Ω, est l’ensemble des issues possibles d’une expérience. On l’appelle aussi ensemble
fondamental.
Une même expérience peut fournir plusieurs univers différents suivant ce qu’on veut en tirer.
Exemple.
• L’expérience aléatoire lancer une pièce de monnaie et observer la face apparente a pour univers
Ω" = 8 9:, ;<=: .
• L’expérience aléatoire consistant à lancer un dé deux fois de suite et observant chaque fois le
numéro apparent dans le coté supérieur a pour univers
Ω> = ? @" , @> avec @" est le résultat du 1LM lancer et @> résultat du 2è*- lancerP = 1,2,3,4,5,6 > .
• L’expérience aléatoire de tirer simultanément deux boules d’une urne contenant 5 boules
numérotées de 1 à 5, a pour univers
Ω> = ? 1,2 ; 1,3 ; 1,4 ; 1,5 ; 2,3 ; 2,4 ; 2,5 ; 3,4 ; 3,5 ; 4,5 P.
pas fini, on est parfois amené à se restreindre et à ne pas considérer tous les sous-ensembles
Un évènement relatif à une expérience aléatoire est proposition sur les résultats de l’expérience.
L’approche ensembliste consiste à représenter un évènement par un sous-ensemble de l’univers dont
les éléments sont les résultats réalisant l’évènement.
Exemple. L’expérience aléatoire de tirer simultanément deux boules d’une urne contenant 5 boules
numérotées de 1 à 5, a pour univers Ω = ? 1,2 ; 1,3 ; 1,4 ; 1,5 ; 2,3 ; 2,4 ; 2,5 ; 3,4 ; 3,5 ; 4,5 P.
On définit l’évènement U= « les numéros des boules tirées sont pairs » et l’évènement V=« la
somme des numéros des boules tirées est 5 ». Les ensembles correspondants à ces évènements
sont :
U = ? , W ∈ Ω: i, j sont pairsP = ? 2,4 P et V = ? , W ∈ Ω: i + j = 5P = ? 1,4 ; 2,3 P.
2
Chapitre 1 : Introduction aux probabilités
La plupart des notions ensemblistes ont une traduction dans le langage des probabilités, afin de
mieux traduire leur interprétation intuitive.
résultat de l’expérience.
U entraîne V si U ⊂ V.
Événement « U et V » : U ∩ V.
Événement « U ou V » : U ∪ V.
Une famille U! , ∈ d est dite constituée d’événements deux à deux incompatibles si pour tout
Exemple.
Une expérience aléatoire consiste à lancer deux dés identiques et observer leurs faces
supérieures. L’univers associé à cette expérience est
1,1 ; 1,2 ; 1,3 ; 1,4 ; 1,5 ; 1,6 ; 2,2 ; 2,3 ; 2,4 ; 2,5 ; 2,6 ;
Ω=g h.
3,3 ; 3,4 ; 3,5 ; 3,6 ; 4,4 ; 4,5 ; 4,6 ; 5,5 ; 5,6 ; 6,6
Soient les évènements A : « la somme des résultats des 2 dés vaut 4 », B : « aux moins l’un
des deux vaut 3 » et C : « les deux résultats sont de même parité ». En termes d’ensembles
3
Chapitre 1 : Introduction aux probabilités
Définition 5. (Système complet d’événements) Un système complet d’événements est une famille
iii. et ⋃!∈n U! = Ω.
Exemple.
U! , = 2, … ,12 telle que pour tout = 2, … ,12, U! : « la somme des résultats des deux dés vaut
Définition 6. (o-algèbre, ou tribu)Soit Ω un univers (fini ou non). Une p-algèbre q d’événements sur
i. Ω ∈ q;
iii. Pour tout famille dénombrable U! , ∈ d , d ⊂ ℕ, d’éléments de q, ⋃!∈n U! est dans q (stabilité
i. ∅ ∈ q;
iii. Pour tout famille dénombrable U! , ∈ d , d ⊂ ℕ, d’éléments de q, ⋂!∈n U! est dans q (stabilité
4
Chapitre 1 : Introduction aux probabilités
3. Espaces probabilisés
a) Mesures de probabilité
i. ∀U ∈ q, 0 ≤ P U ≤ 1;
ii. P Ω = 1 ;
iii. (propriété de σ-additivité) Pour toute famille dénombrable U ∈{ d’événements deux à deux
incompatibles, ∑ ∈{ P U converge, et on a :
P }# U • = PU .
∈~ ∈~
Exemple.
Soit €Ω, Ω • un espace probabilisable avec Ω = 1,2,3,4,5,6 est l’univers de l’experience aléatoire :
jeter un dé et observer la face supérieure. On peut définir une mesure de probabilité P telleque
P: q ⟶ ℝ
|U|
U⟼ .
6
ii. P ∅ = 0;
iii. ∀U ∈ q, P U̅ = 1 − P U ;
v. ∀U, V ∈ q, A ⊂ B ⟹ P U ≤ P V ; et
vi. ∀U, V ∈ q, P U ∪ V = P U + P V − P U ∩ V .
Nous avons maintenant tout ce qu’il faut pour nous définir un cadre rigoureux pour nos probabilités.
5
Chapitre 1 : Introduction aux probabilités
Voici un résultat commode pour décrire de façon rapide une mesure de probabilité.
Proposition 3. (Détermination d’une probabilité par l’image des singletons) Soit Ω un ensemble fini
ou dénombrable. Alors, une mesure de probabilité sur €Ω, Ω • est définie de manière unique par
Exemple.
La mesure de probabilité de l’exemple précédent peut être définit comme suit
1
∀^ ∈ 1,2,3,4,5,6 : 8 ^ = .
6
Définition 10. (Probabilité uniforme sur un univers fini) La probabilité uniforme (ou équirépartition)
6
Chapitre 1 : Introduction aux probabilités
iii. Une propriété est vraie presque sûrement si l’événement « la propriété est satisfaite » est
presque-certain.
Exemple. Un mobile se déplace aléatoirement sur un intervalle [−1,1] avec < > 0. On s’intéresse à
la position du mobile dans un instant donné. L’univers associé à cette expérience est Ω = [−1,1].
L’ensemble des évènements q = Ω , c’est l’ensemble des ensembles dont les élément sont des
points de [−1,1]. Sur l’espace probabilisable Ω, q , on définit la mesure de probabilité P telle que
pour tout point de [−1,1] :
+1
P€ −1, •=
2
où −1, est intervalle dont la borne inférieure et la borne supérieure sont −1 et , respectivement.
Sous l’espace probabilisé Ω, q, P , pour tout −1 ≤ ≤ 1, l’évènement : « le mobile est au point
y » est un évènement quasi-impossible car
P [0, ] = P [0, [ + P .
Puisque P [0, ] = P [0, [ , P = 0.
" " " "
L’évènement i− , 0, j : « le mobile est au point − , au point 0 ou au point » est un évènement
• > • >
quasi-impossible, car
1 1 1 1
P ‘g− , 0, h’ = P ‘g− h’ + P 0 + P ‘g h’ = 0.
3 2 3 2
" " " "
L’évènement [−1,1] ∖ i− • , 0, >j : « le mobile n’est pas aux points − •, 0 et » est évènement quasi-
>
certain car
1 1 1 1 1 1
P ‘[−1,1] ∖ g− , 0, h’ = P [−1,1] − P ‘[−1,1]⋂ g− , 0, h’ = 1 − P ‘g− , 0, h’ = 1.
3 2 3 2 3 2
7
Chapitre 1 : Introduction aux probabilités
événements de q tels que V ne soit pas presque impossible. Alors, la probabilité conditionnelle
Cette définition se comprend bien pour la mesure uniforme : il s’agit de la proportion des éléments
de B qui satisfont A (c’est-à-dire la proportion des éléments de B qui sont dans A∩B).
Exemple. Lancer un dé équilibré et observer le coté apparent. L’univers de cette expérience est Ω =
1,2,3,4,5,6 .
|5|
L’espace probabilisé est Ω, Ω , P telle que ∀ ∈ Ω :P = ”
. Sachant que le résultat obtenu
est pair, on définit une mesure de probabilité P . |V avec B est l’évènement que le résultat obtenu
soit pair, telle que ∀ ∈ Ω
| ∩ V|
P ∩V
6 | ∩ V|
P |V = = = .
|V|
P V 3
6
On remarque d’une part que les évènements incompatibles avec V sont de probabilité nulle par la
mesure de probabilitéP . |V , c’est-à-dire, il sont quasi-impossibles dans €Ω, Ω , P . |V •, et d’autre
part que les évènements réalisés par tous les éléments de V sont de probabilité égale à 1, c’est-
à-dire, il sont quasi-certains dans €Ω, Ω , P . |V •.
2. Indépendance
Deux événements U et V sont indépendants si la connaissance de l’un ne modifie pas la probabilité
de l’autre, donc si P U|V = P U et P V|U = P V . L’inconvénient de cette définition réside dans le fait
qu’elle n’est valable que sous une hypothèse de non quasi-impossibilité, afin de pouvoir considérer les
probabilités conditionnelles. On constate cependant que dans le cas de non quasi-impossibilité, les
deux égalités sont équivalentes à l’égalité : P U ∩ V = P U P V .
8
Chapitre 1 : Introduction aux probabilités
Exemple. Lancer un dé équilibré deux fois de suite. L’univers associé à l’expérience est Ω =
1,2,3,4,5,6 > et l’espace probabilisable est q = Ω . Puisque les évènements élémentaires sont
équiprobable, on définit sur l’espace probabilisable Ω, q la mesure de probabilité uniforme P telle
que ∀ ∈ q :
| | | |
P = = .
|Ω| 36
Soient les évènements U : « que le résultat du 1er lancer soit multiple de 3 » et V : « que le résultat
du 2ème soit pair ». Ainsi U = 3,6 × 1,2,3,4,5,6 , V = 1,2,3,4,5,6 × 2,4,6 et U ∩ V = 3,6 × 2,4,6 .
"> " "– " ” "
P U = = , P V = = et P U ∩ V = = .
•” • •” > •” ”
U et V sont indépendants car
P U∩V 1/6 1 P U∩V 1/6 1
P U|V = = = = P U et P V|U = = = =P V .
P V 1/2 3 P U 1/3 2
On peut vérifier l’indépendance par
1 1 1
P U ×P V = × = =P U∩V .
3 2 6
i. U et Ṽ sont indépendants ;
Définition 14. (indépendance Mutuelle pour une famille finie) Soit Ω, q, P un espace probabilisé,
∀™ ⊂ •1, Ž, P š› Uf • = ž P€Uf •.
f∈œ f∈œ
Exemple. Lancer une pièce de monnaie quatre fois de suite et observer la figure apparente pour
chacun des lancers.
L’univers associé à cette expérience est Ω = ;, 8 Ÿ . On prend comme espace des évènements q =
Ω . On définit sur l’espace probabilisable Ω, q , étant donnés que les évènements élémentaires
| |
sont équiprobables, la fonction de probabilité uniforme P telle que ∀U ∈ q, P U = .
"”
ème
Soient pour tout = 1, … ,4, les évènement U! : « Obtenir une face au i lancer ». On a
9
Chapitre 1 : Introduction aux probabilités
1/4
U" ∩ U• ; × ;, 8 × ; × ;, 8
1/4
U" ∩ UŸ ; × ;, 8 × ;, 8 × ;
1/4
U> ∩ U• ;, 8 × ; × ; × ;, 8
1/4
U> ∩ UŸ ;, 8 × ; × ;, 8 × ;
1/4
U• ∩ UŸ ;, 8 × ;, 8 × ; × ;
1/8
U" ∩ U> ∩ UŸ ; × ; × ;, 8 × ;
1/8
U" ∩ U• ∩ UŸ ; × ;, 8 × ; × ;
1/8
U> ∩ U• ∩ UŸ ;, 8 × ; × ; × ;
Dans l’espace probabilisé Ω, q, P , les évènements U" , U> , U• et UŸ sont mutuellement indépendants
car
P U" ∩ U> = P U" × P U> , P U" ∩ U• = P U" × P U• , P U" ∩ UŸ = P U" × P UŸ , P U> ∩ U• = P U> ×
P U• , P U> ∩ UŸ = P U> × P UŸ , P U• ∩ UŸ = P U• × P UŸ , P U" ∩ U> ∩ U• = P U" × P U> × P U• ,
P U" ∩ U> ∩ UŸ = P U" × P U> × P UŸ , P U" ∩ U• ∩ UŸ = P U" × P U• × P UŸ , P U> ∩ U• ∩ UŸ =
P U> × P U• × P UŸ et P U" ∩ U> ∩ U• ∩ UŸ = P U" × P U> × P U• × P UŸ .
10
Chapitre 1 : Introduction aux probabilités
d’événements si :
i. ∀ ∈ d : P U! ≠ 0 ;
iii. –
P U! = 1.
!∈n
Ainsi, la différence avec un système complet réside uniquement dans le fait que l’union des événements
n’est égale à Ω qu’à un ensemble négligeable près (l’union est presque-certaine et non certaine).
Exemple. Un mobile se déplace aléatoirement sur l’intervalle [0,1]. L’univers associé à cette expérience est
Ω = [0,1] et l’espace des évènements associé est [0,1] . On définit sur l’espace probabilisable Ω, q la
mesure de probabilité P telle que ∀[<, ¢] ⊂ [0,1] , P [<, ¢] = ¢ − < et on obtient l’espace probabilisé Ω, q, P .
On a pout tout 0 ≤ < ≤ 1, P <= P [<, <] = < − < = 0 d’où tout évènement élémentaire est quasi-impossible.
Même chose pour tout sous-ensemble fini de points de l’intervalle [0,1], <" , <> , <• , … , < ( ∈ ℕ∗ ), est aussi
quasi-impossible, on a
P <" , <> , <• , … , < = P <" ∩ <> ∩ <• ∩ … ∩ < = P <" + P <> + P <• + ⋯ + P < = 0.
Par conséquent, tout ensemble égal à [0,1] moins une partie finie de points de [0,1] est quasi-certain, par
" " " " ¥ • –
exemple les évènements ]0,1[, [0,1[ et [0,1] − i0, ¥ , Ÿ , • , > , – , Ÿ , ¦ , 1j sont quasi-certains.
" " " " " • " • " " " • " " " •
ii. P š§0,
«¬¬ ¨ ∩ §–¬®
–¬-¬¬
, •§• = P š§0,
«¬¬ ¨ ∩ ¨•¬®
–¬-¬¬
, Ÿ¨•=P š§0,
«¬¬ ¨ ∩ §Ÿ¬®
–¬-¬¬
, 1¨• = 0, P ©§– , •§ ∩ ¨• , Ÿ¨ª = P ©i•jª = 0, P 𧫬
, •¬-¬
– ¬
§ ∩ §¬, 1¨• =
Ÿ¬®
∅ ∅ ∅ ∅
" • •
0 et P š¨«¬
, Ÿ¬-¬
¨ ∩ §¬, 1¨• = 0 ; et
• ¬ Ÿ¬®
∅
" " " " • • " " " " " • • " ¥ ¥ "
iii. P ©§0, –¨ ∪ § – , •§ ∪ ¨ • , Ÿ¨ ∪ §Ÿ , 1¨ª = P ©§0, –¨ª + P ©§– , •¨ª + P ©i•jª + P ©§• , Ÿ¨ª + P ©§Ÿ , 1¨ª = – + >Ÿ + 0 + "> + Ÿ = 1.
Théorème 10. (Formule des probabilités totales) Soit U! !∈n un système quasi-complet fini ou
dénombrable, tels que les événements U! ne sont pas presque-impossibles, et soit ∈ q . Alors
P V = P V|U! P U! .
!∈n
11
Chapitre 1 : Introduction aux probabilités
La formule des probabilités totales permet de retrouver une probabilité P V connaissant les probabilités
conditionnelles P V|U! .
P V = P V|U P U + P V|U̅ P U̅ .
Théorème 11. (Formule des probabilités composées) Soit > 2, et P U" ∩ U> ∩ … ∩ U " ≠ 0 (donc
L’intérêt de cette formule est de donner une formule pour le calcul des probabilités d’intersections
d’événements, notamment dans le cas d’une succession d’expérience. Cette formule dévoile toute son
utilité lorsque les événements considérés ne sont pas mutuellement indépendants.
12
Chapitre 1 : Introduction aux probabilités
Exemple. Une urne contient 7 boules vertes et 3 boules noires. On y effectue une suite des
tirages sans remise d’une boule jusqu’à obtenir une boule noire. Le nombre de boules vertes étant
7 le nombre de tirages possible est 8.
Posons pour = 1, … ,8, les évènements U! « la boule tirée au ième soit noire ». Quelle est la
probabilité qu’on obtienne une boule noire pour la première fois au 3ème tirage. Il s’agit de
P ˜˜˜ ˜˜˜> ∩ U• . En utilisant la formule des probabilités composées
U" ∩ U
7 6 3 7
P ˜˜˜
U" ∩ ˜˜˜
U> ∩ U• = P ˜˜˜
U" × P ˜˜˜ ˜˜˜" × P U• |U
U> |U ˜˜˜" ∩ ˜˜˜
U> = × × = .
10 9 8 40
3. Formules de Bayes
La troisième formule permet d’inverser des conditions. Sa version simple découle de façon directe de
la définition d’une probabilité conditionnelle.
Théorème 12. (Formule de Bayes simple) Soit U et V deux événements tels que P U > 0 et P V >
0. Alors
P V|U P U
P U|V = .
P V
De façon plus générale, la connaissance des probabilités d’un système complet, et des probabilités
d’un événement V conditionnées au système complet permet de retourner une à une les probabilités
conditionnelles:
Théorème 13. (Formule de Bayes sur un système complet) Soit U" , U> , … , U un système quasi-
complet fini ou dénombrable, et V un événement non quasi-impossible tel que pour tout ∀1 ≤ ≤
P€V³Uf •P€Uf •
P€Uf ³V• = .
∑´ " P V|U P U
Le système U" , U> , … , U représente souvent une liste de causes pouvant amener l’événement V lors
d’une étape suivante de l’expérience. Il est alors généralement facile de déterminer la probabilité
qu’une certaine conséquence V ait lieu, sachant que la cause U! a eu lieu, c’est-à-dire la probabilité
conditionnelle P V|U! (on respecte dans ce cas l’ordre temporel).
13
Chapitre 1 : Introduction aux probabilités
Solution :
1. P€U> ³U"! •= ? On distingue deux cas :
• Si ≤ µ, on ne peut pas obtenir la boule numéro k au 2ème tirage car elle est parmi les boules enlevées
de la boule.
"
• Si > µ, il en reste dans l’urne − 1 boules équiprobables au tirage ainsi dans ce cas P€U> ³U"! • = ! ".
1
= ¸ − 1 si > µ .
P€U> ³U"! •
0 si ≤ µ
2. Les 10 évènements U"" , U"> , U"• ,…, U"" forment un système quasi-complet d’événements car :
i. ces évènements ne sont pas quasi-impossibles puisque au 1er tirage les 10 boules sont dans l’urne,
ii. les évènements sont incompatibles car on en tire qu’une seule boule d’où pour tout ≠
W: P }U
«¬∩¬U
!- ®f • = 0, et
∅
iii. U"" ∪ U"> ∪ U"• ∪ … ∪ U"" est un évènement certain puisque le numéro de la boule tirée est forcément
14
Chapitre 1 : Introduction aux probabilités
… et pour µ = 9
1 1
P U¦> = × P U¦> ³U"" = .
10 90
4. Justifier sans calculer :
a) ∀µ ∈ •1,9Ž: P€U" ·" ³U> • = 1 car si on obtient à un tirage donné la boule numéro 2 on enlève toutes
les boules de l’urne sauf la boule numéro 1 qui sera forcément la boule qu’on tira au tirage suivant.
b) ∀µ ∈ •1,10Ž: P€U" ·" ³U" • = 0 car si on tire au 1er tirage la boule n° k on ne effectuera pas plus de k
tirages ainsi le tirage n° k+1 n’aura pas lieu.
5. La probabilité que la probabilité qu’on ait tiré la boule n° k au 1er sachant que la boule tirée au 2ème
tirage est la boule n° 1. Il s’agit de P€U" ³U"> •. En utilisant la formule de Bayes,
1 1
P€U "
³U • × P€U • × 10 2520
= µ−1
> " "
P€U" ³U"> • = " = .
! !
∑! " P€U" •P€U> ³U" • 7129 7129 µ − 1
25200
µ 2 3 4 5 9 10
2520 1260 840 630 315 280
P€U" ³U"> •
7129 7129 7129 7129 7129 7129
15
Chapitre 2 : Notion de variables aléatoires réelles
I. Introduction et définition
Définition. Soit Ω, un espace probabilisable. Nous appelons variable aléatoire réelle (v.a.r.)
toute application de Ω dans ℝ telle que : pour tout intervalle de ℝ, l’ensemble =
ω ∈ Ω| ω ∈ est un événement de .
Notations
Les variables aléatoires sont notées avec des lettres majuscules et les quantités
déterministes avec des lettres minuscules. Exemple : = .
Nous notons = Ω l’ensemble des valeurs prises par la variable aléatoire définiesur
l’espace probabilisé Ω, , P .
Et pour tous nombres réels < :
L’événement = ω ∈ Ω: ω = se note = .
L’événement −∞, = ω ∈ Ω: ω ≤ se note ≤ .
L’événement , = ω ∈ Ω: a < ω ≤ se note a < ≤ .
Exemple 1.
Soit ℰ une expérience aléatoire qui consiste à effectuer deux tirages sans remise d’urne
contenant 10 jetons numérotés de 1 à 10.
L’univers associé à cette expérience est Ω = , avec , ∈ #1,10& et ≠ (où est
er ème
numéro obtenu au 1 tirage et est celui du 2 ). L’ensemble des évènements est =) Ω .
Ainsi Ω, est un espace probabilisable associé à cette expérience.
Soit > une variable aléatoire définie sur Ω tel que ∀ , ∈ Ω: + , , = max , .
L’ensemble des valeurs de cette variable est > Ω = 2,3,4,5,6,7,8,9,10 .
• L’évènement > = 5 est équivalent à l’événement
1
Chapitre 2 : Notion de variables aléatoires réelles
> 5 = , ∈ Ω: max , = 5 = 1,5 ; 2,5 ; 3,5 ; 4,5 ; 5,1 ; 5,2 ; 5,3 ; 5,4 .
• L’évènement > ≤ 3 est équivalent à l’événement
> −∞, 3 = , ∈ Ω: max , ≤3 = 1,2 ; 1,3 ; 2,1 ; 2,3 ; 3,1 ; 3,2 .
A C7, +∞C = , ∈ Ω: | − | ≥ 7
= 1,8 ; 1,9 ; 1,10 ; 2,9 ; 2,10 ; 3,10 ; 8,1 ; 9,1 ; 9,2 ; 10,1 ; 10,2 ; 10,3 .
2. Fonction de répartition
Définition. Soient Ω, , P un espace probabilisé et une variable aléatoire réelle définie sur Ω.
On appelle fonction de répartition de la variable aléatoire D la fonction numérique réelle ED
définie par
∀F ∈ ℝ, GH F = P ≤F .
Définition. Soient Ω, un espace probabilisable et une variable aléatoire réelle définie sur
Ω. Nous appelons variable aléatoire discrète (v.a.d.) si l’ensemble de ses valeurs Ω , est
dénombrable.
Un ensemble W est dénombrable s’il existe une application bijective de X dans ℕ. Un ensemble
dénombrable est donc infini.
Un ensemble W est au plus dénombrable s’il existe une application bijective de E dans une partie
finie de ℕ.
2
Chapitre 2 : Notion de variables aléatoires réelles
Définition. Soit une variable aléatoire discrètes définie sur un espace probabilisé Ω, , P .
Nous appelons loi de la variable aléatoire D la donnée de la suite numérique +P =Z =
[H Z ,\∈H ]
telle que
1. ∀Z ∈ Ω , [H Z > 0 et ∀Z ∉ Ω , [H Z = 0 ;
2.
` [H Z = 1 ;
\∈H ]
3. ∀F ∈ ℝ,
GH F = P ≤ F = ` [H Z .
\ab
\∈H ]
Pour tout nombre réel F, notons par Z , Z , … , Zd = Ω ∩ −∞, F l’ensemble des éléments de
Ω inférieurs à F, ainsi nous pouvons écrire
d
GH F = ` [H Zf = [H Z + [H Z + ⋯ + [H Zd .
fg
Exemple 2. Soit un dé ayant deux faces marquées par le chiffre ‘1’, deux par le chiffre ‘2’, une
marquée par le chiffre ‘3’ et une marquée par le chiffre ‘4’. Nous lançons le dé et nous
observons le chiffre marqué sur la face supérieure. L’ensemble des résultats possibles est Ω =
1,2,3,4 avec P 1 = i, P 2 = i, P 3 = j et P 4 = j.
Soit une variable aléatoire définie par, ∀k ∈ Ω : k = k mod 3.
Nous obtenons par calcul, 1 = 1, 2 = 2, 3 = 0 et 4 = 1 d’où Ω = 0,1,2 qui est
un ensemble au plus dénombrable (car il est fini) d’où est une variable aléatoire discrète.
Loi de [H :
[H 0 = P = 0 = P+ 0 ,=P 3 = j.
[H 1 = P = 1 = P+ 1 , = P 1,4 = .
[H 2 = P = 2 = P+ 2 ,=P 2 = i.
Le diagramme en bâtons de
3
Chapitre 2 : Notion de variables aléatoires réelles
Fonction de répartition de GH :
Pour F < 0 : 0,1,2 ∩ −∞, F = ∅ d’où
GH F = ` [H Z = 0.
\ab
Pour 0 ≤ F < 1 : 0,1,2 ∩ −∞, F = 0 d’où
1
GH F = ` [H Z = [H 0 = .
6
\ab
Pour 1 ≤ F < 2 : 0,1,2 ∩ −∞, F = 0,1 d’où
2
GH F = ` [H Z = [H 0 + [H 1 = .
3
\ab
Pour F ≥ 2 : 0,1,2 ∩ −∞, F = 0,1,2 d’où
GH F = ` [H Z = [H 0 + [H 1 + [H 2 = 1.
\ab
Ainsi, nous avons
0 si F < 0
1/6 si 0 ≤ F < 1
GH F = n .
2/3 si 1 ≤ F < 2
1 si F ≥ 2
Le graphe de GH :
Soient Ω, , P un espace probabilisé et une variable aléatoire discrète (v.a.d.) définie sur Ω.
Ω = f |q ∈ avec une partie de ℕ ou de ℤ. Nous posons P = f = [H f .
4
Chapitre 2 : Notion de variables aléatoires réelles
a) Espérance mathématique
Définition. Nous disons que la variable aléatoire admet une espérance mathématique lorsque
Ω est fini ou lorsque nous avons convergence de la somme ∑f∈H ] | f [H f |.
Nous appelons alors espérance mathématique de X, la moyenne pondérée notéet et définie
par
t = ` f [H f .
f∈H ]
Remarque : Lorsque ∑f∈w| f [H f | n’existe pas nous disons que ne possède pas d'espérance
mathématique.
Soient et > deux variable aléatoires discrètes ayant des espérances mathématiques sur un
espace Ω, ℱ, P et la fonction y : Ω → ℝ alors nous avons les propriétés :
t+y ,= ` y f ∙ [H f .
f∈H ]
{
En particulier lorsque y = , pour tout [ ∈ ℕ∗ , t {
est dit moment d’ordre } de la variable
aléatoire . Dans ce cas, on dit que admet un moment d’ordre [.
5
Chapitre 2 : Notion de variables aléatoires réelles
b) Variance et écart-type
Définition. Une variable aléatoire discrète admet une variance lorsque admet un moment
d'ordre 2 (convergence de ∑f∈H ] [H f ). Dans ce cas, la variance de vaut
•H = ‚ar = t „+ − t , ….
Propriété de la variance
i. ‚ar =t − +t , ;
ii. ‚ar =0;
iii. ‚ar + = ‚ar .
6
Chapitre 2 : Notion de variables aléatoires réelles
Définition. Soit ∈ C0,1 . Une variable aléatoire suit une loi de Bernoulli de paramètre }, notée
‡ } , si la variable aléatoire prend la valeur 1 avec la probabilité [ et la valeur 0 avec la
probabilité 1 − [ = ˆ.
La loi de probabilité et la fonction de répartition d’une variable aléatoire discrète qui suit une loi
de Bernoulli de paramètre 0 < [ < 1 est de la forme :
[ si Z = 1 0 si F < 0
[H Z = ‰1 − [ si Z = 0 . GH F = ‰ 1 − [ si 0 ≤ F < 1.
0 sinon 1 si F ≥ 1
L’écriture ↝ ‡ } signifie que la variable aléatoire X suit une loi de Bernoulli de paramètre }.
Dans ce cas, nous avons : t = [ et Œ • = [ˆ = [ 1 − [ .
Définition. Soit • ∈ ℕ∗. Une variable aléatoire suit une loi uniforme discrète si la variable
aléatoire prend • valeurs possibles Z , Z , … , Zd avec pour tout q ∈ #1, •& la probabilité de Zf
égale à 1⁄•.
Pour tous entiers ’ < , l’écriture ↝ “#’,”& signifie que la variable aléatoire D suit une loi
uniforme discrète sur #’, ”&. Dans ce cas,
+ − − +2
t = et Var = .
2 12
Remarque 1 : La loi uniforme discrète sur #v, –& peut s'appliquer à toute situation aléatoire à •
issues équiprobables dès que celles-ci peuvent être associées aux nombres 1,2, … , •. Nous avons
alors
•+1 • −1
t = et Var = .
2 12
7
Chapitre 2 : Notion de variables aléatoires réelles
Remarque 2: Si une variable aléatoire discrète suit une loi uniforme discrète sur #’, ”&, avec
, ∈ ℕ et < , alors la variable aléatoire discrète > = − + 1 suit une loi uniforme sur
#v, ” − ’ + v&.
La loi de probabilité et la fonction de répartition d’une variable aléatoire discrète qui suit une loi
une loi uniforme discrète sur l’intervalle d’entiers #v, –& est de la forme :
1 0 si F < 1
[H Z = ‰ • si Z ∈ #1, •&. ˜b™
GH F = — d si 1 ≤ F < •.
0 sinon
1 si F ≥ •
Exemple 6. D’une urne contenant dix boules numérotées de 1 à 10, on tire au hasard une boule
et on observe le numéro inscrit sur la boule. L’univers associé à cette expérience est Ω = #0,10&.
Sur l’espace probabilisable +Ω, ) Ω ,, on définit la fonction probabilité uniforme P telle que ∀W ∈
) Ω :
|W|
P W = .
10
La variable aléatoire discrète , définie par ∀k ∈ Ω, k = k, suit une loi uniforme discrète sur
#1,10& et on écrit ↝ š# , O& .
Définition. Soit n un entier naturel non nul et [ ∈ C0,1 . Une variable aléatoire D suit une loi
binomiale de paramètres – et }, notée ℬ •, [ , si la variable aléatoire prend la valeur
Z ∈ #0, •& avec la probabilité égale à
C\d [\ 1 − [ d \
.
La loi de probabilité et la fonction de répartition d’une variable aléatoire discrète qui suit une loi
binomiale de paramètres • ∈ ℕ∗ et 0 < [ < 1 est de la forme :
Z • •−Z
[H Z = ŽCZ [ 1 − [ si Z ∈ #0, •& 0 si F < 0
. •
0 sinon GH F = —∑˜b™
\gO CZ [Z 1−[ •−Z si 0 ≤ F < • .
1 si F ≥ •
L’écriture ↝ ‡ –, } signifie que la variable aléatoire D suit une loi binomiale de paramètres n et
}. Dans ce cas, nous avons : t = • [ et Œ • = • [ 1 − [ = • [ ˆ.
Exemple 7. Une boite contient 10 jetons dont 4 sont rouges et 6 sont verts. On effectue une
suite de 3 tirages avec remise d’un jeton et on observe la couleur du jeton tiré pour chaque
tirage. L’univers associé à cette expérience est (on note par R et V les couleurs rouge et
verte) :
Ω = œ, œ, œ ; Œ, œ, œ ; œ, Œ, œ ; Œ, Œ, œ ; œ, œ, Œ ; Œ, œ, Œ ; œ, Œ, Œ ; Œ, Œ, Œ .
Sur l’espace +Ω, ) Ω ,, on définit la variable aléatoire qui est égale au nombre de jetons
verts tirés. Les tirages étant effectués sous les mêmes conditions (mêmes configurations des
jetons), les tirages sont mutuellement indépendants.
8
Chapitre 2 : Notion de variables aléatoires réelles
k • k k k • k k
2 i 3 2
œ, œ, œ ~ • 0 œ, œ, Œ ~ • × ~ • 1
5 5 5
3 2 3 2
Œ, œ, œ ~ • × ~ • 1 Œ, œ, Œ ~ • ×~ • 2
5 5 5 5
3 2 3 2
œ, Œ, œ ~ • × ~ • 1 œ, Œ, Œ ~ • ×~ • 2
5 5 5 5
3 2 3
Œ, Œ, œ ~ • ×~ • 2 Œ, Œ, Œ ~ • 3
5 5 5
Définition. Soit [ ∈ 0,1C. Une variable aléatoire suit une loi géométrique de paramètre }, notée
¡ [ , si la variable aléatoire prend la valeur Z ∈ ℕ∗ avec la probabilité égale à
\
1−[ [.
Remarques : Cette loi sert généralement lorsque nous nous intéressons au temps d’attente du
premier succès, c’est-à-dire au nombre d’essais nécessaires pour obtenir un succès, lors d’une
succession d’expériences aléatoires indépendantes n’ayant que deux issues possibles : le succès
avec une probabilité [ et l’échec avec une probabilité ˆ = 1 − [.
Propriétés : L’espérance et la variance d’une variable aléatoire suivant une loi géométrique de
{
paramètre [ sont égales respectivement à t = { ¢F Œ • = .
{£
La loi de probabilité et la fonction de répartition d’une variable aléatoire discrète qui suit une loi
géométrique de paramètre 0 < [ < 1 est de la forme :
\
[ si Z ∈ ℕ∗ . 0 si F < 1
[H Z = Ž 1 − [ GH F = Ž ˜b™
0 sinon 1− 1−[ si F ≥ 1
9
Chapitre 2 : Notion de variables aléatoires réelles
Définition. Soient [ ∈ 0,1C et • ∈ ℕ∗ . Une variable aléatoire suit une binomiale négative de
paramètres } et §, notée ¨‡ §, } , si la variable aléatoire prend la valeur Z ∈ ℕ ∩ C•, +∞C
avec la probabilité égale à
C\© 1−[ \ © ©
[ .
La loi binomiale négative est la loi du nombre de répétitions indépendantes nécessaires pour
obtenir • succès. La loi de probabilité et la fonction de répartition d’une variable aléatoire
discrète qui suit une loi binomiale négative de paramètres • ∈ ℕ∗ 0 < [ < 1 est de la forme :
© \ © ©
[ si Z ∈ ℕ ∩ C•, +∞C. 0 si F < •
[H Z = ŽC\ 1−[
˜b™
0 sinon GH F = n .
` C\© 1−[ \ © ©
[ si F ≥ •
\g©
Propriétés : L’espérance et la variance d’une variable aléatoire suivant une loi binomiale
négative de paramètres [ et • ( ↝ ¨‡ §, } ) sont égales respectivement à
• • 1−[
t = et Œ • = .
[ [
10
Chapitre 2 : Notion de variables aléatoires réelles
Définition. Soit « > 0. Une variable aléatoire suit une loi de Poisson de paramètre ¬, notée
) « , si la variable aléatoire prend la valeur Z, Z ∈ ℕ avec la probabilité égale à
«\
exp −« .
Z!
Remarque. La loi de Poisson est utilisée pour décrire plusieurs types de phénomènes comme le
nombre d’appels reçus par un standard téléphonique pendant une période donnée.
Propriétés : L’espérance et la variance d’une variable aléatoire suivant une loi de Poisson de
paramètre « sont égales respectivement à t = « ¢F Œ • = «.
La loi de probabilité et la fonction de répartition d’une variable aléatoire discrète qui suit une loi
de Poisson de paramètre « > 0 est de la forme :
«Z 0 si F < 0
[H Z =‰exp −« si Z ∈ ℕ. ˜b™
Z! GH F = n «Z
0 sinon ` exp −« si F ≥ 0
Z!
\gO
où ˜F™ désigne la partie entière de t.
Exemple 10. Dans une usine, le nombre mensuel moyenne de pannes de ses machines est
estimé à 5 pannes par mois. Soit la variables aléatoire donnant le nombre de pannes
occurrentes dans un mois choisi au hasard. Cette variable aléatoire discrète suit une loi de
Poisson de paramètre 5.
ž® ž
La probabilité que le nombre de pannes soit 3 est [H 3 = exp −5 = j ¯°± ž ≈ 0,14.
i!
11