0% ont trouvé ce document utile (0 vote)
101 vues72 pages

Introduction aux Lois de Probabilité

Transféré par

399c7ca574
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
101 vues72 pages

Introduction aux Lois de Probabilité

Transféré par

399c7ca574
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Probabilité

Pr. OUCHICHA Chaimae

Ecole Nationale de Commerce et de Gestion


ENCG- Settat

2022/2023
Plan du cours
Chapitre 1: Analyse combinatoire/Dénombrement
I. Principe multiplicatif
II. Arrangement
III. Permutation
IV. Combinaison
Chapitre 2: Théorie des ensembles et de probabilité
I. Notions sur la théorie des ensembles
II. Notions générales : (Vocabulaire probabiliste)
III. Notion de probabilité
IV. Probabilités conditionnelles et composées
Chapitre 3: Variable aléatoire
I. Définition générale
II. Variable aléatoire discrète
III. Variable aléatoire continue
Chapitre 4: Lois de Probabilité Usuelles
I. Lois Usuelles Discrètes
II. Lois Usuelles Continue
Chapitre 4: Lois de Probabilité Usuelles
I. Lois Usuelles Discrètes

De nombreuses situations pratiques peuvent être modélisées à l’aide de


variables aléatoires qui sont régies par des lois spécifiques. Il importe donc
d’étudier ces modèles probabilistes qui pourront nous permettre par la suite
d’analyser les fluctuations de certains phénomènes en évaluant, par exemple,
les probabilités que tel événement ou tel résultat soit observé.
Loi Uniforme

Définition
1
On dit que 𝑋 suit une loi uniforme sur 1, … , 𝑛 , si 𝑃 𝑋 = 𝑖 = , pour tout
𝑛
𝑖 ∈ 1, … , 𝑛
Cette loi est associée à une expérience dont toutes les issues sont également
probables.
On note 𝑋 ∼ 𝒰 1,…,𝑛
Loi Uniforme

Proposition.
Si 𝑋 ∼ 𝒰 1,…,𝑛 alors,
𝑛+1 𝑛2 − 1
𝐸 𝑋 = , 𝑉(𝑋) =
2 12

Exemples.
• Si on prend un dé à 6 faces équilibrées, alors le score obtenu en lançant
le dé suit une loi uniforme sur {1, … , 6}
• Une urne contient n boules numérotées de 1 à 100. On tire une boule au
hasard, et on note 𝑋 la variable aléatoire égale au chiffre obtenu.
Alors 𝑋 suit une loi uniforme sur {1, … , 100}
Loi de Bernoulli
Soit une expérience à deux issues, succès et échec (ou vrai et faux) par
exemple. Soit la v.a 𝑋:
𝑋 = 0 si le résultat est un échec

𝑋 = 1 si le résultat est un succès
La loi de probabilité de la v.a 𝑋 est: 𝑃 𝑋 = 1 = 𝑝 et 𝑃 𝑋 = 0 = 1 − 𝑝,
(0 ≤ 𝑝 ≤ 1). 𝑝 est la probabilité du succès. On dit que la variable aléatoire
𝑋 suit une loi de Bernoulli, si elle ne prend que les valeurs 0 et 1.
𝑋 Ω = {0, 1}, et on écrit 𝑋~ 𝔅(𝑝) avec:
𝑃(𝑋 = 1) = 𝑝 et 𝑃 𝑋 = 0 = 1 − 𝑝 = 𝑞
➢ Une variable de Bernoulli traduit une expérience aléatoire ayant deux
issues possibles et effectuée une seule fois. 𝔅(𝑝) est la loi de Bernoulli
de paramètre 𝑝
Caractéristiques de la loi de Bernoulli

L’espérance de la variable aléatoire 𝑋:


𝑛

𝐸 𝑋 = ෍ 𝑥𝑖 𝑝𝑖
𝑖=1
=𝑝×1+ 1−𝑝 ×0=𝑝
La variance et l’écart-type de la variable aléatoire 𝑋:
𝑛
2
𝑉 𝑋 =𝐸 𝑋2 − 𝐸 𝑋 = ෍ 𝑥𝑖2 𝑝𝑖 − 𝑝2
𝑖=1
= 𝑝 − 𝑝2 = 𝑝(1 − 𝑝)
𝜎 𝑋 = 𝑝(1 − 𝑝)
Loi de Bernoulli
Exemple 1.
Une urne contient deux boules rouges et trois boules vertes. On tire une boule
de l’urne. La variable aléatoire 𝑋 représentant « la boule tirée est rouge »
est une variable de Bernoulli. On a :
2 3
𝑝 𝑋 = 1 = = 𝑝, 𝑝(𝑋 = 0) = = 𝑞.
5 5

Exemple 2.
A un concours se présentent deux fois plus d’hommes que de femmes. On tire
une personne au hasard, soit 𝑋 la variable aléatoire représentant le résultat :
«femme »
1. Quelle loi suit la variable 𝑋 ? Donner la loi de probabilité.
2. Calculer la moyenne et l’´écart-type de 𝑋
Loi de Bernoulli

Solution.
1. Il s’agit d’une expérience de Bernoulli dont le succès est d’obtenir Femme
comme résultat avec une probabilité 𝑝 = 1/3 (le nombre des hommes est
deux fois plus que les femmes). On note 𝑋~ 𝔅(𝑝) . La loi de probabilité
de 𝑋 :
𝒙𝒊 𝒑𝒊
0 2/3
1 1/3

2
2. L’espérance 𝐸(𝑋) = 𝑝 = 1/3, la variance 𝑉 𝑋 = 𝑝𝑞 = et l’écart
9
2
type 𝜎 = 𝑝𝑞 = (avec 𝑞 = 1 − 𝑝).
3
Loi Binomiale
a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues : le succès
avec une probabilité 𝑝 ou l’échec avec une probabilité 𝑞.
b) On répète 𝑛 fois cette épreuve.
c) Les 𝑛 épreuves sont indépendantes entre elles, ce qui signifie que la
probabilité de réalisation de l’événement “succès” est la même à chaque
épreuve et est toujours égale à 𝑝. Dans cette situation, on s’intéresse à la
variable 𝑋 =“nombre de succès au cours des 𝑛 épreuves”.
Appelons 𝑋𝑖 les variables de Bernoulli associées à chaque épreuve. Si la 𝑖 è𝑚𝑒
épreuve donne un succès, 𝑋𝑖 vaut 1. Dans le cas contraire 𝑋𝑖 vaut 0. La somme de
ces variables comptabilise donc le nombre de succès au cours des 𝑛 épreuves. On
a donc X = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛. La variable aléatoire 𝑋 est discrète dont les
valeurs possibles sont les entiers compris entre 0 et 𝑛
𝑋 Ω = {0, 1,2, … , 𝑛}
Loi Binomiale
Cherchons la probabilité d’obtenir k succès, c’est-à-dire 𝑃(𝑋 = 𝑘). La probabilité
d’avoir 𝑘 succès suivis de 𝑛 − 𝑘 échecs est 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 car ces résultats sont
indépendants les uns des autres. La probabilité d’avoir 𝑘 succès et 𝑛 − 𝑘 échecs
dans un autre ordre de réalisation est toujours 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 . Donc tous les
événements élémentaires qui composent l’événement (𝑋 = 𝑘) ont même
probabilité. Combien y en a-t-il « Autant que de façons d’ordonner les 𝑘 succès
par rapport aux 𝑛 − 𝑘 échecs »?. Il suffit de choisir les 𝑘 places des succès parmi
les 𝑛 possibles et les 𝑛 − 𝑘 échecs prendront les places restantes.
Or il y a 𝐶𝑛𝑘 manières de choisir 𝑘 places parmi 𝑛. Finalement, on obtient
𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
Loi Binomiale

Définition
Une variable aléatoire 𝑋 est une variable aléatoire binomiale ou bien obéit à
une loi binomiale, quand la probabilité de 𝑋 = 𝑘 (le nombre de succès
possible égale à 𝑘) est donnée par:
𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
avec 0 ≤ 𝑘 ≤ 𝑛

On dit que 𝑋~ 𝔅(𝑛, 𝑝). On a aussi grâce à la formule de binôme:


𝑛 𝑛

෍ 𝑃(𝑋 = 𝑘) = ෍ 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 = (𝑝 + (1 − 𝑝))𝑛 = 1


𝑘=0 𝑘=0
Caractéristiques de la loi Binomiale

L’espérance de la variable aléatoire 𝑋:


𝐸 𝑋 = 𝐸 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 = 𝐸 𝑋1 + 𝐸 𝑋2 + ⋯ + 𝐸 𝑋𝑛
= 𝑝 + 𝑝 + ⋯ + 𝑝 = 𝑛𝑝
La variance et l’écart-type de la variable aléatoire 𝑋:
Puisque les v.a. 𝑋1, 𝑋2, … , 𝑋𝑛 sont indépendantes donc on a :
𝑉 𝑋 = 𝑉 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 = 𝑉 𝑋1 + 𝑉 𝑋2 + ⋯ + 𝑉 𝑋𝑛
= 𝑝(𝑝 − 1)+𝑝(𝑝 − 1)+…+𝑝(𝑝 − 1)=𝑛𝑝(𝑝 − 1)

𝜎 𝑋 = 𝑛𝑝(1 − 𝑝)
Somme de deux V.A. suivant la loi Binomiale

Proposition
Si 𝑋 suit une loi binomiale 𝔅(𝑛1, 𝑝) et si 𝑌 suit une loi binomiale 𝔅 𝑛2, 𝑝 , avec
𝑋 et 𝑌 sont indépendantes mais de même probabilité 𝑝, alors 𝑋 + 𝑌 suit une
loi binomiale 𝔅(𝑛1 + 𝑛2, 𝑝)

Preuve
Ici puisque 𝑋 est la somme de 𝑛1 variables de Bernoulli indépendantes de
paramètre 𝑝 et 𝑌 sont indépendantes, alors 𝑋 + 𝑌 est la somme de 𝑛1 + 𝑛2
variables de Bernoulli indépendantes de paramètre 𝑝.
Donc 𝑋 + 𝑌 ~ 𝔅(𝑛1 + 𝑛2, 𝑝)
Loi Binomiale

Exemple.
A un concours se présentent 20 personnes. Soit 𝑋 la variable aléatoire
représentant le résultat : «Nombre de femmes passant le concours parmi les 20
personnes». Sachant qu’il y a deux fois plus d’hommes que de femmes,
1. Quelle loi suit la variable 𝑋 ? Donner la loi de probabilité.
2. Calculer la moyenne et l’écart-type de 𝑋
Loi Binomiale
Solution.
1. Il s’agit d’une répétition indépendamment de l’expérience de Bernoulli 20
fois dont le succès est «obtenir Femme comme résultat » avec une
probabilité 𝑝 = 1/3 (le nombre des hommes est deux fois plus que les
femmes). On note 𝑋𝑖 ~ 𝔅(𝑝) , pour tout 𝑖 = 1, 2, … , 20 . Alors 𝑋 =
σ20
𝑖=1 𝑋𝑖 ~ 𝔅(𝑛, 𝑝).
La loi de probabilité de 𝑋 :
• 𝑋(Ω) = {0, 1, 2, … , 20},
• pour tout 𝑘 ∈ 𝑋(Ω) : 𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
20 40
2. L’espérance 𝐸(𝑋) = 𝑛𝑝 = , la variance 𝑉(𝑋) = 𝑛𝑝𝑞 = et l’écart-
3 9
40
type 𝜎 = 𝑛𝑝𝑞 = .
9
Loi de Poisson
La loi de poisson est une loi de probabilité discrète . Elle décrit la
probabilité qu’un événement se réalise durant un intervalle de temps
donné, lorsque la probabilité de réalisation d’un événement est très faible
et que le nombre d’essais est très grand.
Exemples.
• Le nombre de clients arrivant à un guichet de banque entre 15h et 16h.
• Le nombre d’appels téléphonique arrivant à un standard pendant un
intervalle de temps.
• Le nombre de voitures se présentant à un poste de péage d’autoroute
en une heure.
• Le nombre de malades arrivant aux urgences d’un hôpital en une nuit.
Loi de Poisson

Pour décrire les réalisations dans le temps d’un événement donné, on peut :
• Soit chercher le nombre de réalisations de l’événement dans un intervalle
de temps donné qui est distribué suivant une loi de Poisson.
• Soit chercher le temps entre deux réalisations successives de l’événement
qui est distribué suivant une loi exponentielle (voir la partie II).
Définition
Le schéma de la loi de poisson est le même que celui de la loi Binomiale. La
seule différence qui existe entre les deux est que le nombre de répétition
pour le schéma de poisson est infinie.
Soit une variable aléatoire 𝑋 et λ > 0. On dit que 𝑋 suit une loi de poisson
de paramètre λ et on note 𝑋~𝒫 𝜆 si
λ 𝑘
𝑃 𝑋 = 𝑘 = 𝑒 −λ , ∀𝑘 ∈ ℕ
𝑘!
Loi de Poisson
Proposition.
➢ 𝐸 𝑋 =λ
➢ 𝑉 𝑋 =λ
➢ 𝜎 𝑋 = λ
Preuve.
𝑘
λ
𝑃 𝑋 = 𝑘 = 𝑒 −λ
𝑘!
+∞ +∞ +∞
λ 𝑘 λ 𝑘
𝐸 𝑋 = ෍ 𝑘𝑃 𝑋 = 𝑘 = ෍ 𝑘𝑒 −λ = ෍ 𝑘𝑒 −λ
𝑘! 𝑘!
𝑘=0 𝑘=0 𝑘=1
+∞ +∞ +∞
λ𝑘−1 λ𝑘−1 λ 𝑘
= 𝑒 −λ ෍ λ = 𝜆𝑒 −λ ෍ = 𝜆𝑒 −λ ෍ = 𝜆𝑒 −𝜆
𝑒𝜆
(𝑘 − 1)! (𝑘 − 1)! 𝑘!
𝑘=1 𝑘=1 𝑘=0
= 𝜆𝑒 −𝜆+𝜆 = 𝜆
𝜆 𝑘
Car σ+∞
𝑘=0 𝑘! = 𝑒𝜆
Loi de Poisson

Proposition.
Si 𝑋1 et 𝑋2 sont des variables aléatoires indépendantes qui suivent des
lois de Poisson de paramètres respectifs 𝜆1 et 𝜆2, alors 𝑋1 + 𝑋2 suit une
loi de Poisson de paramètre 𝜆1 + 𝜆2.

Exemple.
Les clients arrivent à un guichet au taux moyen de 1.9 clients par minute.
Quelle est la probabilité de l’arrivée de 5 clients pendant une minute ?
On note 𝑋 la variable aléatoire représentant «le nombre de clients qui
arrivent au guichet pendant une minute». Alors 𝑋 suit une loi de Poisson
de paramètre 𝜆 = 1.9 (𝑋~𝒫 𝜆 ) et on a :
• 𝑋 Ω = 0, 1, 2, … = ℕ
λ𝑘
−λ
• 𝑃 𝑋=𝑘 = 𝑒 , ∀𝑘 ∈ 𝑋 Ω
𝑘!
Loi de Poisson

Exemple (suite).
La probabilité d’avoir 5 clients pendant une minute est:
(1.9)5 24.76
−1.9
𝑃 𝑋=5 =𝑒 = 0.1 × = 0.029
5! 120
Et aussi, on a : 𝐸(𝑋) = 𝑉(𝑋) = 1.9
La probabilité d’avoir 1 client pendant une minute est:
1
(1.9)
𝑃 𝑋 = 1 = 𝑒 −1.9 = 0.2841
1!
La probabilité d’avoir 8 clients pendant une minute est:
8
(1.9)
𝑃 𝑋 = 8 = 𝑒 −1.9 = 0.0006
8!
Approximation de la loi Binomiale par la loi de Poisson

La loi binomiale dépend de deux paramètres 𝑛 et 𝑝. Bien qu’il existe


quelques tables statistiques, elle n’est pas simple à utiliser. La loi de Poisson ne
dépend que d’un seul paramètre ce qui la rend plus pratique. Il faut donc
avoir toujours présent à l’esprit que, lorsque les conditions le permettent, on
peut avoir intérêt à remplacer une loi Binomiale par une loi de Poisson. Le
calcul des probabilités par la loi de Poison peut être retrouvé aussi à travers
des tables statistiques selon la valeur du paramètre 𝜆.
Une variable aléatoire suivant une loi binomiale 𝔅(𝑛, 𝑝) peut être approchée
par une loi de poisson 𝒫 𝜆 si:
➢ 𝑛 est suffisamment grand
➢ 𝑝 est voisin de 0 (trop petit)
➢ 𝑛𝑝 n’est pas grand
Approximation de la loi Binomiale par la loi de Poisson
Théorème
Soit 𝑋 une variable aléatoire avec 𝑋~𝔅(𝑛, 𝑝). Alors
𝔅 𝑛, 𝑝 ≈ 𝒫 𝜆 lorsque 𝑛 → +∞ et 𝑝 → 0
λ𝑘
C’est-à-dire 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 ≈ 𝑒 −λ lorsque 𝑛 → +∞ et 𝑝 → 0
𝑘!
En pratique: les conditions d’approximation sont les suivantes
➢ 𝑛 ≥ 30
➢ 𝑝 ≤ 0,1
➢ 𝑛𝑝 ≤ 5
Alors 𝔅(𝑛, 𝑝) peut être approchée par 𝒫 𝜆 avec 𝜆 = 𝑛𝑝
Approximation de la loi Binomiale par la loi de Poisson
Exemple 1.
Un manufacturier sait que 2% des articles qu’il produit sont défectueux. Il choisit,
au hasard, un échantillon de 30 articles pour inspection. Quelle est la probabilité
qu’il trouve 2 articles défectueux ? On note 𝑋 la variable aléatoire représentant
«le nombre d’articles défectueux parmi 30». Alors 𝑋 ∼ 𝔅(30, 0.02).
Comme 𝑛 = 30 ≥ 30 et 𝑝 = 0.02 ≤ 0.1, on peut approximer la loi de 𝑋 par la
loi de Poisson 𝒫(𝜆 = 𝑛 × 𝑝 = 0.6).
Calculons maintenant la probabilité cherchée par les deux lois :
• Calcul direct par 𝕭(𝟑𝟎, 𝟎. 𝟎𝟐):
2
𝑃(𝑋 = 2) = 𝐶30 0.022 0.9828 = 0.0988.
• Calcul approximatif par 𝓟(0.6) :
2
(0.6)
𝑃 𝑋 = 1 = 𝑒 −0.6 = 0.0987
2!
Approximation de la loi Binomiale par la loi de Poisson

Exemple 2.
Un supermarché s’intéresse aux ventes quotidiennes d’un produit frais 𝑃 dont
le stock est reconstitué chaque matin. Pour chaque jour ouvrable, la
probabilité de rupture de stock est de 0,02 et les ruptures sont supposées
indépendantes
Calculer les probabilités pour que sur, 200 jours ouvrables, il y ait: aucune
rupture, deux ruptures, cinq ruptures, aux plus cinq ruptures du produit frais 𝑃
Approximation de la loi Binomiale par la loi de Poisson
Solution.
Soit 𝑋 la variable aléatoire: ‘‘nombre de ruptures du stock du produit frais 𝑃
sur 200 jours’’.
Donc 𝑋 est la somme de 200 variables indépendantes de Bernoulli ce qui
implique que 𝑋 ~ 𝔅 200; 0,02
Les conditions d’approximation:
𝑛 = 200 ≥ 50, 𝑝 = 0,02 ≤ 0,1, 𝑛𝑝 = 4 ≤ 5
Ainsi, la loi 𝔅 200; 0,02 peut être approchée par la loi 𝒫 𝜆 = 4 et donc, en
utilisant l’approximation on a:
𝑃 𝑋 = 0 = 0,0183, 𝑃 𝑋 = 2 = 0,1465, 𝑃 𝑋 = 5 = 0,1563
𝑃 𝑥 ≤ 5 = 0,7851
=𝑃 𝑋 =0 +𝑃 𝑋 =1 +𝑃 𝑋 =2 +𝑃 𝑋 =3 +𝑃 𝑋 =4 +𝑃 𝑋 =5
Loi Hypergéométrique

En pratique, les 𝑛 épreuves de Bernoulli successives ne sont pas


indépendantes.

Exemple: tirage sans remise

Une urne contient 10 boules; 4 boules sont blanches et les 6 autres noires.
On tire simultanément 3 boules de cette urne. Déterminons la loi de
probabilités de la variable aléatoire 𝑋 donnant le nombre de boules
blanches tirées:
Loi Hypergéométrique

𝒙𝒊 Calculs 𝒑𝒊
0 𝐶40 𝐶63 1×20 1
𝑃 𝑋=0 = 3 =
𝐶10 120 6
1 𝐶41 𝐶62 4×15 1
𝑃 𝑋=1 = 3 =
𝐶10 120 2
2 𝐶42 𝐶61 6×6 3
𝑃 𝑋=2 = 3 =
𝐶10 120 10
3 𝐶43 𝐶60 4×1 1
𝑃 𝑋=3 = 3 =
𝐶10 120 30
Total 1
Loi Hypergéométrique

Définition
On considère une population de taille 𝑁 dont 𝑁1 individus exactement
présentent un certain caractère 𝐴. On prélève sans remise un échantillon de
𝑛 individus. Les 𝑛 épreuves de Bernoulli successives ne sont pas indépendantes.
Soit 𝑋 la v.a. du nombre d’individus présentant le caractère 𝐴 dans
l’échantillon. On dit que 𝑋 suit la loi Hypergéométrique de paramètres 𝑁, 𝑛 et
𝑁1 𝑁1
𝑝= , 𝑋 Ω = 0,1, … , min 𝑛, 𝑁1 et on écrite 𝑋 ~ ℋ(𝑁, 𝑛, 𝑝 = )
𝑁 𝑁
Caractéristiques de la loi Hypergéométrique

Propriété.
𝑁1
Si 𝑋 ~ ℋ 𝑁, 𝑛, , la loi de probabilité de 𝑋 est donnée par:
𝑁
𝑘 𝑛−𝑘
𝐶𝑁 1
𝐶𝑁−𝑁 1
𝑃 𝑋=𝑘 = 𝑛
𝐶𝑁

avec 𝑘 ∈ 0,1, … , min 𝑛, 𝑁1


𝑁1
➢ 𝐸 𝑋 = 𝑛𝑝 avec 𝑝 =
𝑁
𝑁−𝑛
➢ 𝑉 𝑋 = 𝑛𝑝 1 − 𝑝
𝑁−1
Remarque.
𝑁1
Si les tirages sont effectués avec remise, 𝑋~ 𝔅(𝑛, 𝑝) avec 𝑝 =
𝑁
Loi Hypergéométrique

Exemple.
On prélève au hasard un échantillon de 𝑛 = 10 pièces dans une production
totale de 𝑁 = 1000 pièces comportant en tout 𝑁1 = 50 pièces défectueuses.
Quelle est la probabilité qu’il y ait exactement 𝑘 = 6 pièces défectueuses dans
l’échantillon ?
Soit 𝑋 le nombre de pièces défectueuses dans l’échantillon. Le nombre 𝑋 de
pièces défectueuses dans un échantillon de 𝑛 pièces suit une loi
𝑁1
hypergéométrique de paramètre 𝑁, 𝑛 et 𝑁1 ℋ(𝑁, 𝑛, ) donnée par:
𝑁
𝑘 𝑛−𝑘
𝐶𝑁 𝐶𝑁−𝑁
𝑃 𝑋=𝑘 = 1
𝑛
1
pour tout 𝑘 ∈ {0,1, … , 10 = min(𝑛, 𝑁1 )}
𝐶𝑁
6 𝐶4
𝐶50
𝑃 𝑋=6 = 10
950
= 2.3 × 10−3
𝐶1000
La Loi géométrique

a. On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues : le
succès avec une probabilité 𝑝 ou l’échec avec une probabilité 𝑞 = 1 − 𝑝.

b. On répète l’épreuve jusqu’à l’apparition du premier succès.

c. Toutes les épreuves sont indépendantes entre elles.

Dans cette situation, on s’intéresse à la variable 𝑋 = “nombre de fois qu’il faut


répéter l’épreuve pour obtenir le premier succès”.

Remarque. On est donc dans les mêmes hypothèses que pour la loi binomiale,
mais le nombre d’épreuves n’est pas fixé à l’avance. On s’arrête au premier
succès
La Loi géométrique

L’ensemble des valeurs prises par 𝑋 est infini, 𝑋(Ω) = {1, 2, 3, . . . } = ℕ∗ .


On cherche la probabilité d’avoir recours à 𝑛 épreuves pour obtenir le
premier succès. Ce succès a une probabilité de réalisation de 𝑝. Puisque c’est
le premier, il a été précédé de 𝑛 − 1 échecs qui ont chacun eu la probabilité
𝑞 de se produire. Etant donné l’indépendance des épreuves, on peut dire que
la probabilité de réalisation de 𝑛 − 1 échecs suivis d’un succès est le produit
des probabilités de réalisation de chacun des résultats,
𝑝(𝑋 = 𝑛) = 𝑞 𝑛−1 𝑝
La Loi géométrique
Définition. On dit que 𝑋 suit une loi géométrique de paramètre 𝒑, ce que l'on
note 𝑋 𝐺(𝑝), si
𝑝 𝑋 = 𝑘 = 𝑞 𝑘−1 𝑝 ∀𝑘 ∈ ℕ∗

Proposition. Si 𝑋 𝐺(𝑝), alors


𝑞
𝐸(𝑋) = 1/𝑝 𝑒𝑡 𝑉(𝑋) = ൗ 2
𝑝
Exemple. On lance un dé plusieurs fois et on note 𝑋 ”le nombre de lancés
nécessaire pour obtenir le nombre 5” pour la première fois. Alors, la loi de 𝑋
est :
▪ 𝑋(Ω) = {1, 2, 3, . . . } = ℕ∗
5 𝑘−1 1
▪ 𝑝 𝑋=𝑘 = × ∀𝑘 ∈ ℕ∗
6 6
1
▪ 𝑋 suit une loi géométrique de paramètre 𝑝 =
6
La Loi géométrique
Exemple. (suite)
▪ la probabilité d’obtenir le nombre 5 pour la première fois au 3è𝑚𝑒 lancé est
3−1
5 1
𝑝 𝑋=3 = × = 0, 1157
6 6
▪ la probabilité d’obtenir le nombre 5 pour la première fois au 8è𝑚𝑒 lancé est
8−1
5 1
𝑝 𝑋=8 = × = 0, 0465
6 6
5
1
▪ 𝐸 𝑋 = 1
6
= 6 𝑒𝑡 𝑉 𝑋 = ൘ 1 2 = 30
6 6

C’est à dire qu’il faut en moyenne 6 lancés pour obtenir le nombre 5 pour la
première fois.
Exercice 1.

Sachant que la probabilité pour qu’un étudiant soit diplômé est de 0.4,
calculer pour un groupe de 5 étudiants, la probabilité pour:

1. Qu’aucun ne soit diplômé

2. Qu’un et un seul soit diplômé.

3. Que deux soient diplômés

4. Qu’au moins deux soient diplômés

5. Que les cinq soient diplômés


Exercice 2.
Une fabrication comporte habituellement 10% de défectueux. Cette
fabrication est contrôlée à l’aide d’échantillon de taille n=20.

1. Quelle est la probabilité d’observer 2 défectueux dans un échantillon


de cette taille.

2. Est-ce exact de dire qu’on a une probabilité supérieure à 0,75


d’observer jusqu’à 2 défectueux?
Exercice 3.
Les ventes journalières d’un certain bien de consommation suivent une loi de
poisson de moyenne 8,8 unités.
1. Dénotons par 𝑋, la variable «vente journalière» . Quelle est l’expression
de la loi régissant les ventes journalières?
2. Quelle est la variance de la variable aléatoire.
3. Quelle est la probabilité de n’observer aucune vente de ce bien en une
journée quelconque?
4. Quelle est la proportion de jours pour lesquels les ventes journalières sont
inférieures à 5 unités?
5. Estimer le nombre de jours où les ventes journalières de ce bien ont été
exactement de 10 unités et ceci pour une période de 250 jours?
II. Lois Usuelles Continues
Loi Uniforme

Contexte
Dans une ville, un voyageur sait que sur une ligne d’autobus donné, il passe un
autobus toutes les heures. Ce voyageur ignore les horaires et arrive à un arrêt
de cette ligne. Combien de temps va-t-il attendre à cet arrêt l’arrivée de
l’autobus?
▪ Notons 𝑋 la variable aléatoire représentant le temps d’attente
Loi Uniforme

Contexte
▪ Le temps d’attente est un nombre appartenant à l’intervalle [0,1] (en
heure) et que l’on ne peut évidemment pas prévoir exactement. On peut
seulement déterminer les probabilités d’événements tels que « on attendra
plus de 5 minutes » ou d’autres événements de ce type.
▪ Le modèle le mieux approprié pour décrire ce phénomène s’avère être
celui de la loi uniforme.
▪ On dit que 𝑋 suit une loi uniforme sur [𝑎, 𝑏]
Loi Uniforme
Définition. On dit qu’une variable aléatoire continue 𝑋 suit la loi uniforme sur
l’intervalle [𝑎, 𝑏] (−∞ < 𝑎 < 𝑏 < +∞) si elle admet pour densité la fonction :
1
𝑓 𝑥 = ቐ𝑏 − 𝑎 si 𝑥 ∈ 𝑎, 𝑏
0 𝑠𝑖𝑛𝑜𝑛
On note 𝑋 ∼ 𝒰([𝑎, 𝑏]).
Proposition 1. Si 𝑋 ∼ 𝒰 𝑎, 𝑏 , alors l’espérance et la variance de 𝑋 sont :
𝑏+𝑎 (𝑏−𝑎)2
𝐸(𝑋) = et 𝑉 (𝑋) =
2 12
Proposition 2. Si 𝑋 ∼ 𝒰 𝑎, 𝑏 , alors sa fonction de répartition est:
0 𝑠𝑖 𝑥 < 𝑎
𝑥−𝑎
𝐹 𝑥 =൞ 𝑠𝑖 𝑥 ∈ 𝑎, 𝑏
𝑏−𝑎
1 𝑠𝑖 𝑥 > 𝑏
Loi Uniforme
La Fonction de répartition (𝐹) et la fonction de densité (𝑓) de 𝑋 ∼ 𝒰 𝑎, 𝑏
Loi Uniforme

Propriété:
Soit 𝑋 une variable aléatoire qui suit la loi uniforme sur l’intervalle [𝑎, 𝑏],
Alors, pour tout intervalle [𝑐, 𝑑] contenu dans 𝑎, 𝑏 , on a

𝑑−𝑐
𝑃 𝑐≤𝑋≤𝑑 =
𝑏−𝑎
Loi Uniforme

Exemple
Dans un supermarché, le temps d'attente 𝑋 à la caisse, exprimé en minutes, suit
la loi uniforme sur l'intervalle [1;11]
1. Déterminer la fonction de densité de probabilité 𝑓 de la loi de 𝑋.
2. Quelle est la probabilité que le temps d'attente soit compris entre trois et
cinq minutes ?
3. Quelle est la probabilité qu'un client attende plus de huit minutes à la
caisse ?
4. Préciser le temps d'attente moyen à la caisse.
Loi Exponentielle

La loi exponentielle est utile pour décrire la durée de réalisation d’une tache
ou pour modéliser des temps d’attente.
Par exemple:
▪ La prochaine panne d’un appareil
▪ La prochaine désintégration dans un réacteur nucléaire
▪ Dans les filles d’attente, la distribution exponentielle est souvent utilisée
pour le temps de service
Loi Exponentielle

Définition. Une v.a 𝑋 suit la loi exponentielle de paramètre 𝜆 > 0 si elle


admet pour densité la fonction :
𝜆𝑒 −𝜆𝑥 si 𝑥 ≥ 0
𝑓 𝑥 =ቊ
0 si 𝑥 < 0
et on écrit 𝑋 ∼ 𝓔(𝜆) . L’espérance et la variance de 𝑋 sont :
1 1
𝐸(𝑋) = et 𝑉 (𝑋) =
𝜆 𝜆2
Sa fonction de répartition est:
1 − 𝑒 −𝜆𝑥 si 𝑥 ≥ 0
𝐹 𝑥 =ቊ
0 si 𝑥 < 0
Loi Exponentielle

La densité de probabilité de 𝑋 ∼ 𝓔(𝜆) , 𝜆 = 0.5, 1 et 1.5


Loi Exponentielle

Fonction de répartition de 𝑋 ∼ 𝓔 𝜆 , 𝜆 = 0.5, 1 et 1.5


Loi Exponentielle

Exemple
Le temps d’attente exprimé en minutes au guichet d’une banque est une
variable aléatoire 𝑋 suivant la loi exponentielle de paramètre λ. On sait que
la probabilité qu’un client attend moins de 8 minutes est égale à 0,7
▪ Quelle est la valeur de paramètre λ?
▪ Calculer la probabilité qu’un client attend entre 15 et 20 minutes?
Loi Normale (Gaussienne)
Définition.
une variable aléatoire réelle 𝑋, prenant ses valeurs dans ℝ, suit une loi
normale, de paramètre 𝑚 et 𝜎, si sa densité de probabilité est donnée par:

1 1
− 2 (𝑥−𝑚)2
𝑓 𝑥 = 𝑒 2𝜎 ,𝑥 ∈ℝ
𝜎 2𝜋
Cette loi est notée, 𝑁(𝑚, 𝜎 2 ).

Et la fonction de répartition est donnée par:


1
1 𝑎 − 2(𝑥−𝑚)2
𝐹𝑋 𝑎 = 𝑃 𝑋 < 𝑎 = ‫׬‬ 𝑒 2𝜎 𝑑𝑥
𝜎 2𝜋 −∞

Lorsque 𝑚 = 0 et 𝜎 2 = 1 on l’appelle la loi normale standard ou loi normale


centré réduite 𝑋 ∼ 𝑁(0, 1) (centré 𝐸(𝑋) = 0, réduite 𝑉 (𝑋) = 1)
Loi Normale (Gaussienne)

Paramètres de la loi normale générale


La loi normale est une des lois de probabilité la plus utilisée. Elle dépend de
deux paramètres, la moyenne 𝑚, paramètre de position, et l’écart-type 𝜎,
paramètre mesurant la dispersion de la variable aléatoire autour de sa
moyenne.
Propriétés (Espérance et variance)
Soit 𝑋 une variable aléatoire suit une 𝑁(𝑚, 𝜎 2 ), alors:
𝐸 𝑋 = 𝑚, la moyenne
𝑉 𝑋 = 𝜎 2 , la variance
𝜎, est l’écart type de 𝑋
Loi Normale (Gaussienne)

Propriété. La densité de probabilités de la loi normale a la forme d’une


«courbe en cloche». Elle est symétrique par rapport à la droite verticale
d’abscisse 𝑥 = 𝑚. Son allure dépend de 𝜎

Densités de la loi normale pour différentes valeurs d’espérances et pour


différentes valeurs d’écart-types.
Loi Normale (Gaussienne)
Remarque. L’axe des abscisses est une asymptote et l’aire sous la courbe à
l’extérieur de l’intervalle [𝑚 − 3𝜎, 𝑚 + 3𝜎] est négligeable. On a
𝑃(𝑚 − 𝜎 < 𝑋 < 𝑚 + 𝜎) = 0.6826
𝑃(𝑚 − 2𝜎 < 𝑋 < 𝑚 + 2𝜎) = 0.9544
𝑃(𝑚 − 3𝜎 < 𝑋 < 𝑚 + 3𝜎) = 0.9974.
(cas particulier 𝑚 = 0, 𝜎 = 1, voir la figure suivante)

Densité de 𝑋 ∼ 𝑁 (0, 1)
Loi Normale (Gaussienne)

Propriétés.
1. Soient 𝑋 ∼ 𝑁 (𝑚, 𝜎 2 ) et 𝑎, 𝑏 ∈ 𝐼𝑅 alors on a :
𝑌 = 𝑎𝑋 + 𝑏 ∼ 𝑁 𝑎𝑚 + 𝑏, 𝑎2 𝜎 2
2. Soient 𝑋1 et 𝑋2 deux variables indépendantes. Si 𝑋1 ∼𝑁(𝑚1 , 𝜎12 ) et
𝑋2 ∼𝑁 𝑚2 , 𝜎22 , alors 𝑋1 + 𝑋2 ∼𝑁 𝑚1 + 𝑚2 , 𝜎12 + 𝜎22
Loi Normale centrée réduite: 𝑁(0,1)
La loi normale centrée réduite est une loi continue, d’une v.a. 𝑋 à valeurs dans
𝑋 Ω = ℝ tout entier, définie à partir de la densité:

1 1
−2 𝑥 2
𝑓 𝑥 = 𝑒
2𝜋
Et la fonction de répartition est donnée par:
𝑎
𝐹𝑋 𝑎 = 𝑃 𝑋 < 𝑎 = න 𝑓(𝑡)𝑑𝑡 ∀𝑎 ∈ ℝ
−∞
On a l’identité 𝐹𝑋 −𝑎 = 1 − 𝐹𝑋 𝑎 ∀𝑥 ∈ 𝐼𝑅
Propriétés (Espérance et variance)
Soit 𝑋 une variable aléatoire suit une 𝑁 0,1 , Alors:
𝐸 𝑋 = 0, la moyenne
𝑉 𝑋 = 1, la variance
Loi Normale centrée réduite: 𝑁(0,1)

La fonction de densité de probabilité de 𝑋 ∼ 𝑁(0,1)


Loi Normale centrée réduite: 𝑁(0,1)

La fonction de répartition de 𝑋 ∼ 𝑁(0,1)


Lien entre les lois normales

Théorème
1. Soit 𝑋 une variable aléatoire de loi normale 𝑁(𝑚, 𝜎) et 𝑌 la variable
aléatoire définie par:

𝑋−𝑚
𝑌= ;
𝜎
Alors 𝑌 suit une loi normale centrée réduite 𝑁 0,1 .
2. Si la loi de 𝑌 est la loi normale de moyenne 0 et d’écart-type 1 alors la loi de
𝑋 = 𝜎𝑌 + 𝑚 est la loi normale de moyenne 𝑚 et d’écart-type 𝜎
Calcul pour la loi Normale 𝑁(𝑚, 𝜎 2 )

Soit 𝑋 est une variable Normale de moyenne 𝑚 et d’écart-type 𝜎 . Pour


calculer 𝑃 𝑋 ≤ 𝑥 , on se ramène à une loi normale centrée réduite. On pose
𝑋−𝑚
𝑌= <=> 𝑋 = 𝜎𝑌 + 𝑚
𝜎
𝑋−𝑚
𝑃 𝑋 ≤ 𝑥 = 𝑃 𝜎𝑌 + 𝑚 ≤ 𝑥 = 𝑃 𝑌 ≤
𝜎
Comme la loi de 𝑌 est la loi normale centrée réduite, le dernier est donnée par
la table de la loi normale
𝑋−𝑚
𝑃 𝑋 ≤ 𝑥 = 𝐹𝑌 ( )
𝜎
Table statistique de la loi normale centrée réduite

Remarque: Dans les pratiques, les probabilités d’événements d’une v.a. suivant
une loi normale sont répertoriées dans des tables facilement manipulables.

La table de la loi normale standard donne pour tout 𝑢 de 0 jusqu’à 2.99 par
pas de 0.01, la valeur de 𝑃(𝑌 ≤ 𝑢) . L’entrée en ligne donne les deux
premiers chiffres de 𝑢, c’est-à-dire le chiffre des unités et celui des dixièmes,
et l’entrée en colonne le chiffre des centièmes.
Table statistique de la loi normale centrée réduite
La table suivante donne, pour différentes valeurs de u, les valeurs de 𝑃 =
𝑃(𝑌 ≤ 𝑢). Avec 𝑌 est une v.a suivant la loi normale centrée réduite.

On lit par exemple P(Y ≤ 0, 64) = 0, 7389.


Loi Normale

Exemple
Soit 𝑍 et 𝑋 deux variables aléatoires tel que 𝑍~𝑁(0,1) et 𝑋~𝑁(1,4), Calculer
1. 𝑃(𝑍 ≤ 1.46)
2. P Z ≤ −1
3. P Z ≻ −1
4. P −1 ≤ X ≤ 1
5. Si P Z ≤ b = 0.8708, déterminer b
6. Si 𝑃 𝑍 ≤ 𝑏 = 0.2877, déterminer 𝑏
Approximation de la loi binomiale par la loi normale

Soit 𝑋 une variable aléatoire qui suit la loi binomiale, 𝑋~𝔅 𝑛, 𝑝


𝑋 Ω = {0, 1,2, … , 𝑛}
𝐸 𝑋 = 𝑛𝑝 et 𝑉 𝑋 = 𝑛𝑝 1 − 𝑝

𝑋−𝑛𝑝
Et soit la v.a 𝑍 = . On a 𝐸 𝑍 = 0 et 𝑉 𝑍 = 1
𝑛𝑝(1−𝑝)

La loi 𝔅 𝑛, 𝑝 peut être approchée par la loi normale 𝑁(𝑛𝑝, 𝑛𝑝 1 − 𝑝 ) si


• 𝑛 > 30,
• 𝑛𝑝 > 15
• 𝑛𝑝 1 − 𝑝 > 5
Approximation de la loi binomiale par la loi normale

Pour 𝑘 ∈ 0,1, … , 𝑛 l’intervalle [𝑘 − 0.5, 𝑘 + 0.5] est l’ensemble des valeurs


qui s’arrondissent à 𝑘
Soit 𝐹 la fonction de répartition de la loi normale 𝑁(𝑛𝑝, 𝑛𝑝 1 − 𝑝 )
Pour 𝑘 = 1, … , 𝑛 − 1, 𝑃(𝑋 = 𝑘) ≈ 𝑃(𝑘 − 0.5 ≤ 𝑋 ≤ 𝑘 + 0.5)
= 𝐹 𝑘 + 0.5 − 𝐹(𝑘 − 0.5)
D’autre part pour que la somme des valeurs approchées des 𝑃 𝑋 = 𝑘 , 𝑘
variant de 0 à 𝑛 fasse 1, c’est-à-dire pour que σ𝑛𝑘=0 𝑃 𝑋 = 𝑘 = 1, on a
𝑃 𝑋 = 0 ≈ 𝐹 0.5
𝑃 𝑋 = 𝑛 ≈ 1 − 𝐹 𝑛 − 0.5
Approximation de la loi binomiale par la loi normale

Exemple
Soit 𝑋 une variable aléatoire qui suit la loi binomiale, 𝑋~𝔅 40,0.5
𝑛 = 40 > 30
𝑛𝑝 = 40 × 0.5 = 20 > 15
𝑛𝑝 1 − 𝑝 = 40 × 0.5 1 − 0.5 = 10 > 5
𝑋−20
𝔅 40,0.5 peut être approchée par 𝑁(20; 10) et suit la loi 𝑁(0,1)
10

𝑃 𝑋 = 20 ≈ 𝐹 20 + 0.5 − 𝐹 20 − 0.5 = 0.1271


Le calcul direct donne
20
𝑃 𝑋 = 20 = 𝐶40 × 0.520 (1 − 0.5)20 = 0.1254
Approximation de la loi de poisson par la loi normale

Soit 𝑋 une variable aléatoire qui suit la loi de poisson de


paramètre λ, 𝑋~𝒫 λ
𝐸 𝑋 =𝑉 𝑋 =λ
𝑋−λ
Et soit la v.a 𝑍 = . On a 𝐸 𝑍 = 0 et 𝑉 𝑍 = 1
λ

En pratique on a, La loi 𝒫 λ peut être approchée par la loi normale 𝑁(λ, λ)


si λ > 15
Soit 𝐹 la fonction de répartition de la loi normale 𝑁(λ, λ)
Approximation de la loi de poisson par la loi normale

Exemple
Si 𝑋~𝒫 16 , les calculs des probabilités concernant 𝑋 peuvent être effectués
en utilisant la loi 𝑁(16; 16) car 16>15. Ainsi
𝑃 𝑋 = 20 ≈ 𝐹 20 + 0.5 − 𝐹 20 − 0.5 = 0.8697 − 0.8092 = 0.0605
1620 𝑒 −16
Le calcul direct donne 𝑃 𝑋 = 20 = = 0.05591950595
20!
Approximation de la loi de poisson par la loi normale

Exemple
Si 𝑋~𝒫 16 , les calculs des probabilités concernant 𝑋 peuvent être effectués
en utilisant la loi 𝑁(16; 16) car 16>15. Ainsi
𝑃 𝑋 = 20 ≈ 𝐹 20 + 0.5 − 𝐹 20 − 0.5 = 0.8697 − 0.8092 = 0.0605
1620 𝑒 −16
Le calcul direct donne 𝑃 𝑋 = 20 = = 0.05591950595
20!
Théorème de la limite centrale

Théorème
Soit 𝑋1 , 𝑋2 , … , 𝑋𝑛 , … une suite de v.a indépendantes et de même loi,
𝑋1 +𝑋2 ,+ ⋯+𝑋𝑛
2 ത
d’espérance 𝑚 et de variance 𝜎 et soit la v.a 𝑋𝑛 =
n

𝑋ത𝑛 −𝑚
Pour 𝑛 assez grand, la loi de 𝑛 peut être approchée par la loi
𝜎

normale standard 𝑁(0, 1).

𝑋ത𝑛 − 𝑚
𝑃 𝑛 ≤ 𝑥 ≈ 𝑃(𝑁(0, 1) ≤ 𝑥)
𝜎
Théorème de la limite centrale

Exemple.
Chaque année, Mohammed effectue deux fois par jours, cinq fois par semaine
et pendant 46 semaines, un trajets en voiture dont la durée est une v.a réelle
X qui suit une loi d’espérance 45 minutes et d’écart-type 10 minutes. On
suppose que les durées des trajets sont indépendantes. Quelle est la
probabilité que Mohammed passe au moins 350 heures dans sa voiture au
cours de l’année
Théorème de la limite centrale

Exemple (Suite).
Mohammed effectue 460 trajets par an (2 × 5 × 46 = 460). Soit 𝑇𝑖 la durée
en minutes du 𝑖 ème trajet (1 ≤ 𝑖 ≤ 460). le temps 𝑇 en minutes passé par
Mohammed dans sa voiture au cours de l’année est
460

𝑇 = ෍ 𝑇𝑖
𝑖=1
Les v.a 𝑇𝑖 460
𝑖=1 sont indépendantes et suivent une même loi d’espérance 45 et
d’écart-type 10. Soit
𝑇1 +𝑇2 +⋯+𝑇460 𝑇

𝑇= =
460 460
Comme 460 est grand, le théorème de la limite centrale permet d’approcher

𝑇−45
la loi de 460 par la loi normale standard 𝑁(0,1)
10
Théorème de la limite centrale

Exemple (Suite).
350 ℎ𝑒𝑢𝑟𝑒𝑠 = 35060 = 21000 𝑚𝑖𝑛𝑢𝑡𝑒𝑠

𝑇 21000 21000
𝑃 𝑇 ≥ 21000 = 𝑃 ≥ ത
=𝑃 𝑇≥
460 460 460
21000

𝑇−45 −45
460
=𝑃 460 ≥ 460
10 10

≈ 𝑃 𝑁 0,1 ≥ 1.3987
𝑃(𝑁(0,1) ≥ 1.4) = 1 − 𝑃(𝑁(0,1) < 1.4) = 1 − 0.9192 = 0.0808
Donc la probabilité cherchée est très proche de 0.08

Vous aimerez peut-être aussi