Chapitre VI : Lois de probabilités
187
Plan du chapitre
Introduction
I. Les lois de probabilités discrètes
II. Les lois de probabilité continues
III. La convergence
188
Introduction
La pratique des probabilités dans la modélisation
statistique passe très souvent par une parfaite
connaissance des lois usuelles ; le probabiliste-
statisticien a en effet besoin :
D'identifier la ou les lois de probabilité des variables
engendrant les données observées
De connaître et interpréter leurs caractéristiques
fondamentales (espérance, écart-type, médiane, etc...)
qui interviennent dans l’expression des densités ou de
fonctions de répartition
De pouvoir approximer ces lois par des comportements
asymptotiques limites apparaissant dans un certain 189
I. Les lois de probabilité discrètes
Assez souvent on rencontre dans la pratique des
expériences aléatoires qui ont deux résultats
possibles (oui ou non; défectueux ou normal; …).
Ces expériences peuvent être répétées un certain
nombre de fois, indépendantes ou dépendantes
entre elles .
On considère aussi des expériences aléatoires
relatives aux événements rares.
L'étude de ces expériences se fait par, la définition
des variables aléatoires correspondantes et la
détermination de leurs lois de probabilités et leurs
propriétés. 190
1. La loi Bernoulli
1.1. Définition
Considérons une expérience qui n’a que deux
résultats possibles dont l’un est appelé 𝑅 (réussite)
et l’autre est appelé 𝐸 (échec), avec 𝑝(𝑅)=𝑝 et par
voie de conséquence, la probabilité d'échec
𝑝(𝐸)=𝑞=1−𝑝. Aux résultats R et E, on associe
respectivement les valeurs 1 et 0.
Ce genre d’expérience s’appelle expérience de
Bernoulli (du nom du mathématicien suisse Jacques
Bernoulli) dont la loi de probabilité est donnée
par :
𝑋↝𝔅(1;𝑝) d’espérance 𝐸(𝑋)=𝑝 et de variance
191
La loi de probabilité d’une variable qui suit une loi
de Bernoulli est donnée sous la forme suivante:
Résultats Succès Échec
possibles de
l’expérience
Xi valeurs 1 0
possibles de X
P(X=xi) p q=1-p 1
Exemple 1
On lance une pièce de monnaie, et on s’intéresse à la
face supérieure obtenue. Le tableau suivant donne la
loi de probabilité de cette expérience.
192
Solution
Résultats succès échec
possibles de
l’expérience
Xi valeurs
possibles de X
1 0
P(X=xi) 1/2 1/2 1
Exemple 2
On lance un dé numéroté de 1 à 6 et on note le
numéro de la face supérieure du dé.
On s’intéresse à la question suivante:
le numéro du dé obtenu est-il inférieur ou égal à 3.
193
Solution
Il faut signaler que dans ce cas, il y’a six résultats
élémentaires mais on s’est ramené à deux
résultats possibles:
Oui : succès = numéro inférieur ou égal à 3;
Non : échec = numéro strictement supérieur à
3.
Résultat
xi 1 0
P(X=xi) 3/6 3/6 1
194
D’autres exemples
[Link] lance un dé de six face, soit X la variable aléatoire
qui prend 1 si on a obtenu un nombre pair et 0 sinon;
[Link] une enquête auprès des étudiants, on vérifie si
l’étudiant a validé la première semestre ou non;
[Link] un hôtel on cherche si ses clients sont de
nationalité marocaine ou étrangère;
[Link] des tirs au but dans un match de foot, soit la
variable aléatoire X qui prend 1 si le joueur a marqué
0 sinon.
195
2. La loi binomiale
2.1. Définition
A partir d’une suite d’expériences aléatoires de
Bernoulli supposées indépendantes entres elles, on
définit une variable aléatoire X comme le nombre de
réalisations de l’événement succès après les n essais.
On dit que la variable aléatoire X suit une loi binomiale
de paramètres n et p. Ainsi, n est évidemment le
nombre d’expériences réalisées et p la probabilité de
l’événement succès pour chacune des expériences.
Notée 𝑋↝𝔅(n;𝑝)
Les valeurs possibles pour 𝑋 sont 𝑘=0,1,2,..,𝑛 et on
démontre que la loi de probabilité de 𝑋 est donnée
par : 196
2.2. Caractéristiques
E(X) = np
V(X) = npq
Remarques
p+q=1 (p et q ne changent pas durant l’expérience
aléatoire).
197
Résultat
Si X suit une loi binomiale de paramètres n, p et k
dont, n est le nombre d’expérience ; P est la
probabilité de succès et K: les nombre de succès
alors:
Les probabilités pour les différentes valeurs de K
(succès) sont les éléments du développement du
binôme de Newton. On écrit :
198
Exemple 1
On réalise 5 tirages avec remise d’une boule d’une
urne contenant 6 boules rouges et 4 boules noires.
On cherche la probabilité d’obtenir 3 fois une
boule rouge.
Réponse
Soit X: le nombre de boules rouges obtenues
après les cinq tirages. 𝑋↝𝔅(5;0,6).
0,6 est la probabilité d’avoir une boule rouge pour
un seule tirage
p(X=3) =
199
Exemple 2
On jette 6 fois une pièce de monnaie bien équilibrée, ou
encore, on jette six pièces bien équilibrées. On suppose que «
face » correspond à un succès. On a donc : 𝑛 = 6 et 𝑝 = 𝑞 =
1/2.
200
3. Loi hypergéométrique
3.1. Définition:
Soit une population N ayant 2 caractères:
- Le caractère A en proportion p - Le caractère B en
proportion q
- N1: L'échantillon ayant le caractère A - N2:L'échantillon ayant le
caractère B
Avec : p+q=1 & N1+N2=N
avec - N= N1+N2 - p=N1 /N
- q=N2/N - k = 0,1,2….n (valeurs possibles de VA X
)
201
3.2. Caractéristiques
Remarques
On applique la loi hyper-géométrique si on
effectue pour une population donnée N des
expériences sans remise, successives, simultanées.
Tous les éléments sont dépendants;
n/N : représente le taux de sondage;
N-n/N-1 : représente le taux d’exhaustivité.
202
Exemple
Pour former un groupe de représentants d’étudiants, on a
choisi au hasard 20 parmi les 800 étudiants d’un amphi. On
suppos qu’il y a 600 garçons parmi les 800
étudiants .Question:
Calculer la probabilité d’avoir 15 garçons parmi les 20
étudiants choisis?
Réponse
Soit X : le nombre de garçons choisis parmi les 20 étudiants
D’après l’énoncé ce nombre X peut prendre une valeur
comprise entre 0 et 20 ; p=600/800=0,75. q=0.25 nous
avons alors
𝑋↝H(800;20; 0,75).
Donc la probabilité recherché est:
203
4. Loi de poisson
4.1. Définition de la Loi Poisson
La variable aléatoire X suit une loi de Poisson de paramètre λ,
notée P(λ) avec λ> 0 lorsque sa loi de probabilité vérifie :
k
PX k e , k N.
Avec: e = 2.7182
k!
λ = la valeur moyenne de la variable aléatoire
k = 0;1;2;3…..n = N (les valeurs possibles de la variable
aléatoire X)
Remarque
Cette équation définit une loi de probabilité car
204
4.2. Caractéristiques
Soit X une variable aléatoire suivant une loi de
Poisson de paramètre λ, alors on a:
E(X) = V (X) = λ.
λ-1 < mode < λ
4.3. Propriété
Si X suit P(λ) et Y suit P(μ) alors Z=X+Y suit
P(λ+μ)
Remarque
la loi de poisson correspond à la loi des événement
rares qui ont des probabilités très faible.
205
Exemple
Une entreprise de location de véhicules estime que la
demande journalière X suit une de poisson de moyenne
égale à 4,5 soit E(X)=λ= 4,5.
La loi de probabilité répond à l’expression suivante:
206
II. Les lois probabilistes continues
On rencontre dans la pratique des phénomènes
aléatoires dont les variables aléatoires associées
peuvent prendre toute valeur de R ou d'un intervalle
de R. (Revenus, Tailles, poids, …).
Donc les ensembles des valeurs possibles de telles
variables aléatoires (v.a) sont infinis et non
dénombrables, et ces variables sont dites variables
aléatoires continues (v.a.c.).
Contrairement aux v.a.d., les lois des v.a.c. ne sont
pas caractérisées par les probabilités discrètes des
réalisations P(X=xi), mais elles sont définies par la
donnée d'une fonction continue f, appelée densité 207
1. La loi normale générale
1.1. Définition:
Soient m et σ deux nombres réels avec (σ >0). On
dit qu'une variable aléatoire continue. X suit une
loi normale générale de paramètres m et σ si sa
densité de probabilité est donnée par:
On note : X↝𝒩(μ ; 𝜎)
Ainsi, on peut écrire : (La somme des probabilités
est égale à 1)
208
1.2. Représentation graphique
Le graphe ci-contre
montre les variations de
𝑓 en fonction de 𝜇 et
de 𝜎. On remarque en
particulier, que ces
courbes en forme de
cloche sont symétriques
par rapport à 𝑥 =𝜇. Il y
a autant de
représentations
graphiques que de « »
et « m ».
209
1.3. Caractéristiques de la loi normale
𝐸(𝑋)= 𝜇
𝑉𝑎𝑟(𝑋)= 𝜎²
moyenne 𝜇 = mode M0 = médiane Mé= espérance
mathématique EM
Loi normale est symétrique par rapport à la moyenne
210
2. Loi normale centrée réduite
2.1. Définition
On dit qu'une v.a.c. T suit une loi normale centrée
et réduite si sa densité de probabilité est donnée
par:
On écrit T ↝𝒩(0,1)
2.2. Relation entre 𝒩(m, σ) et 𝒩(0, 1)
Si 𝑋 suit une loi normale de paramètres 𝜇 et 𝜎²
alors la variable T =(𝑋−𝜇)/𝜎 suit la loi normale
centrée réduite c’est-à-dire de paramètres 𝜇 =0
et 𝜎= 1. 211
2.3. Caractéristiques
La distribution normale centrée réduite notée
T↝𝒩(0 ; 1) a les propriétés suivantes :
L’espérance de la loi normale vaut : 𝐸(𝑋)= 0
La variance de la loi normale vaut : 𝑉𝑎𝑟(𝑋)=1
2.4. Représentation graphique
Le graphe représente
graphiquement la loi
normale centrée réduite
212
2.5. Fonction de répartition de T
On appelle fonction 𝜋 , la fonction de répartition
d’une variable normale centrée réduite X.
On peut exprimer la fonction de répartition
de 𝑋 de cette manière:
213
2.6. Table de la loi normale centrée réduite
214
Table de la loi normale centrée réduite π (z) = P(Z< z) pour z ≥0 [avec π(-z) = 1 - π (z)]
215
Exemple
On représente par X le résultat d’exploitation
mensuel d’une entreprise. On suppose que X est
une variable aléatoire qui suit une loi normale de
moyenne 100 et de variance 1600. pour le mois
prochain, donnons les probabilités pour que ce
résultat soit :
a) Inférieur à 60
b) Inférieur à 120
c) Supérieur à 80
d) Supérieur à 140
e) Compris entre 60 et 120.
216
Réponse
217
Suite
218
3. La loi log normale
3.1. Définition
Une variable aléatoire X suit une loi log-normale de
paramètres m et 𝜎 si son logarithme suit une loi normale.
Avec une densité de probabilité donnée par la fonction
suivante:
On note en général
Log X↝𝒩(m ; 𝜎 )
Remarque
Si log x suit une loi normale de paramètres m et 𝜎 alors la
variable aléatoire U définie par U=
suit une loi 𝒩(0 ; 1).
219
3.2. Représentation de log normale
La loi log-normale est une
loi qui n’est pas
symétrique . Sa
représentation graphique
dépend des valeurs des
paramètres (moyenne m et
écart type 𝜎).
220
3.3. Caractéristiques
L’espérance mathématique :
La variance :
221
III. La convergence de lois
1. Approximation par une loi discrète
1.1. Tendance de la loi hypergéométrique vers la
loi binomiale
Dans les sondages, la loi hypergéométrique est le
mieux adapté mais on peut approcher cette loi par
la loi binomiale dans le cas où nous avons:
N est assez grand
n/N est inférieur 0.1
On écrit:
H (N,n,p) B(n , p)
222
1.2. Tendance de la loi binomiale par la loi de
poisson
On peut approcher une loi binomiale par une loi de
poisson de paramètre λ dans le cas où on a:
La probabilité p est proche de 0 ( C’est pourquoi la
loi de poisson est aussi appelé la loi des
phénomènes rares)
Le nombre d’expérience est supérieur à 50 (n>50)
On écrit :
B(n, p) P (λ )
NB!
λ = np
223
2. Approximation par une loi continue
Seuls les cas qui vont être approchés par la loi normale seront
étudiés
2.1- Approximation d’une loi binomiale par une loi normale
On peut approcher une loi binomiale B(n, p) par une loi normale
N(m,𝜎) si on vérifie les conditions suivantes:
n est assez grand
P ni proche ni proche de 1 (l’idéal p=0.5)
np ≥ 15 (en pratique)
On écrit : B(n , p) N(m , 𝜎)
NB!
m= np et 𝜎=
Si T ↝ B(n , p) et B(n , p) N(m, 𝜎) alors T ↝ N(np ,
) 224
2.2. Méthodes d’approximer une loi binomiale par
une loi normale
1ère méthode
Celle-ci se base sur égalité numérique de la fonction de
densité d’une loi normale centrée réduite N(0,1) et des
probabilités d’une variable aléatoire qui suit une loi
binomiale de paramètres n et p.
On écrit:
Posons
L'équation peut être écrite sous cette forme:
225
2ème méthode
Elle se base sur l’égalité des probabilités du type
p(X=k) dans le cas discret aux probabilités du type
p( K- 0,5 < X < k + 0,5) dans le cas continu c’est-à-
dire à chaque valeur Xk du cas discret correspond
un intervalle
dans le cas continu.
226
2.3. Approximation d’une loi de poisson par une loi
normale
On peut approcher une loi de poisson de paramètre λ
par une loi normale de paramètre m= λ et 𝜎 =
dans le cas où:
Le paramètre λ est supérieur à 20 (λ > 20)
Méthode de calcul:
Le principe est le même que celui de la deuxième
méthode employée pour approximer une loi binomiale
par une loi normale
227
Chapitre VII- Introduction à
l’échantillonnage
228
Plan du chapitre
Introduction
I - Théorème central limite
II- Fondements théoriques de la méthode de
sondage
aléatoire.
229
Introduction
L’analyse inférentielle notamment l’estimation et
l’échantillonnage est une suite logique de l’analyse des
probabilité qui suit aussi l’analyse descriptive. Il s’agit donc
d’un processus bien défini et continu pour analyser des
phénomènes par un chercheur.
L’analyse de probabilité n’est pas une fin en soi même mais
un passage obligé pour prédire et prendre des décisions surtout
dans un environnement incertain.
Pour mieux comprendre les phénomènes, le chercheur réalise
des études empiriques (quantitatives et qualitatives) d’où
l’intérêt de la méthode des sondages étant définie comme une
enquête portant sur un échantillon de taille n de la population
de taille N.
L’échantillon doit être représentatif pour pouvoir généraliser
les résultats obtenus.
230
I. Théorème central limite
Soient X1 + X2 +.... + X n une suite de variables
aléatoires indépendantes de même loi de
probabilité, donc de même moyenne m et de même
variance
Posons:
X = X1 + X2 +.... + Xn =
On a E(X)= n.m
V(X)= n
La nouvelle variable aléatoire Z définie par:
est d’espérance nulle et de variance égale à 1. Z
n’est que la variable aléatoire centrée réduite à
partir de X. 231
Théorème
Lorsque n tend vers l’infini, la variable Z définie
précédemment possède comme fonction de densité
de probabilité de la fonction f définie par:
Cette fonction n’est que la fonction de densité de
probabilité d’une loi normale centrée réduite
Z ↝ 𝒩(0,1)
232
Exemple
400 étudiants se sont présentés au guichet de la
photocopie de la faculté. Chacun d’eux a payé à la
caisse un montant Mi. On suppose que les Mi sont
des variables indépendantes de même loi inconnue,
de moyenne égale 10 Dhs et de variance égale 25.
Donner la probabilité pour que la recette totale du
service de photocopie soit supérieure à 4200.
233
Réponse
Soit Mi la somme payée par étudiant et par R,
la recette totale du service de la photocopie.
On peut écrire R= M1 + M2+…..+ M400
D’après l’énoncé on a:
E(R)= 400 x 10 = 4000 ; V(X) = 400 x 25 =
10000
D’après le théorème central limite:
234
II- Fondements théoriques de la méthode de
sondage aléatoire.
1. L’inégalité de Markov
1.1. Définition
Une variable aléatoire X est dite positive si elle
est définie dans l’intervalle
1.2. Théorème
Pour toute variable aléatoire , on a :
235
Exemple
236
Solution
237
2. l’inégalité de Biénaymé-Tchebycheff
2.1. Démonstration
238
2.2. Théorème
239
3. Loi des grands nombres
A noter que la moyenne empirique d’un échantillon
d’une v.a. X avait même moyenne, au sens
d’espérance mathématique m que X avec une
dispersion, mesurée par la variance, beaucoup plus
faible de valeur .
En effet, quand n devient infini, cette variance tend
vers zéro. Et donc la moyenne empirique converge
vers la moyenne théorique E(X) =m .
240
Théorème
241
Remarque
Ce théorème est obtenu sous la condition que les
v.a aient mêmes moments d’ordre un et deux mais
pas obligatoirement même probabilité d’où
l’appellation de loi faible des grands nombres.
Cependant , il existe une loi forte de grands
nombres relative à une convergence plus forte.
242
Exemple
243
Suite
244
Suite
245