0% ont trouvé ce document utile (0 vote)
45 vues36 pages

Chap3 A

Le document présente les lois de probabilité usuelles, incluant les lois discrètes comme la loi de Bernoulli, la loi binomiale, la loi géométrique, la loi hypergéométrique, et la loi de Poisson, ainsi que des lois continues comme la loi uniforme et la loi normale. Chaque loi est expliquée avec ses caractéristiques, formules, et exemples d'application. Le document aborde également des exercices pratiques pour illustrer l'utilisation de ces lois dans des contextes réels.

Transféré par

ezzahi.afrae
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
45 vues36 pages

Chap3 A

Le document présente les lois de probabilité usuelles, incluant les lois discrètes comme la loi de Bernoulli, la loi binomiale, la loi géométrique, la loi hypergéométrique, et la loi de Poisson, ainsi que des lois continues comme la loi uniforme et la loi normale. Chaque loi est expliquée avec ses caractéristiques, formules, et exemples d'application. Le document aborde également des exercices pratiques pour illustrer l'utilisation de ces lois dans des contextes réels.

Transféré par

ezzahi.afrae
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Probabilités

Filières :DPI & GLD- S1

Professeur: JAMALI-ALAOUI AMINE

October 21, 2024

October 21, 2024 1 / 34


Chapitre III

LES LOIS USUELLES

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 2 / 34


Plan

1 Lois discrètes usuelles

2 Lois usuelles continues

3 Entropie de Shannon

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 3 / 34


Plan

1 Lois discrètes usuelles

2 Lois usuelles continues

3 Entropie de Shannon

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 4 / 34


Schéma de Bernoulli

On s’intéresse ici à la réalisation ou non d’un événement. Autrement


dit, on n’étudie que les expériences aléatoires qui n’ont que deux
issues possibles (ex : un patient à l’hôpital survit ou non, un client
signe le contrat ou non, un électeur vote démocrate ou républicain...).
Considérons une expérience aléatoire de ce type. On l’appelle une
épreuve de Bernoulli. Elle se conclut par un succès si l’événement
auquel on s’intéresse est réalisé ou un échec sinon. On associe à
cette épreuve une variable aléatoire Y qui prend la valeur 1 si
l’événement est réalisé et la valeur 0 sinon. Cette v.a. ne prend donc
que deux valeurs ( 0 et 1) et sa loi est donnée par :

P [Y = 1] = p, P [ Y = 0] = q = 1 − p

On dit alors que Y suit une loi de Bernoulli de paramètre p, notée


B(p). La v.a. Y a pour espérance p et pour variance p(1 − p).

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 5 / 34


Schéma de Bernoulli

Exemple : Modélisation de l’évolution d’un actif (1).


Supposons que le prix d’un actif soit S aujourd’hui. Après une période déterminée, il
peut monter ou descendre. La probabilité de monter est p. Ainsi, la variation de prix
d’un actif sur une période est une v.a. de Bernouilli.
Quand il monte, il finit avec une valeur u × S et quand il descend avec une valeur
d × S (u > 1 et d < 1). Si l’actif gagne 1%, u = 1.01 et s’il perd 1%, d = 0.99.

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 6 / 34


Schéma de Bernoulli
Un schéma de Bernoulli est la répétition n fois de la même épreuve
dans les mêmes conditions.
1 Chaque épreuve a deux issues : succès [S] ou échec [E].
2 Pour chaque épreuve, la probabilité d’un succès est la même, notons P (S ) = p
et P (E ) = q = 1 − p.
3 Les n épreuves sont indépendantes : la probabilité d’un succès ne varie pas,
elle ne dépend pas des informations sur les résultats des autres épreuves. Soit
X la v.a. qui représente le nombre de succès obtenus lors des n épreuves d’un
schéma de Bernoulli. Alors on dit que X suit une loi binomiale de paramètres
(n, p), notée B(n, p). Cette loi est donnée par :
 
n k n−k
P (X = k ) = p (1 − p ) pour tout 0 ≤ k ≤ n
k
 
n n!
Où = k !(n−k )!
.
k
4 Si X est une v.a. de loi B(n, p), alors de E (X ) = np et V (X ) = np(1 − p).

Question: Trouver la fonction caractéristique de la loi binomiale.

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 7 / 34


Schéma de Bernoulli

Exemple : Modélisation de l’évolution d’un actif (2).

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 8 / 34


Schéma de Bernoulli

Exercice d’application: Nombre moyen de défauts dans un


portefeuille de bons.
On considère un portefeuille contenant 25 bons provenant d’émetteurs
distincts. On estime à 10.7% le taux annuel de défauts pour ce genre
de bons pour l’année écoulée.
1 Nombre moyen de bons qui feront défaut pour l’année prochaine
si on modélise les défauts par un modèle binomial ?
2 Quel est l’écart-type du nombre de défaut pour l’année prochaine
?
3 L’utilisation du modèle binomial est-il pertinent ?

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 9 / 34


Loi géométrique

Au lieu de réaliser un nombre fixé d’essais lors d’un schéma de


Bernoulli, l’expérimentateur s’arrête au premier succès. La valeur qui
nous intéresse est le nombre d’essais effectués jusqu’au premier
succès inclus. Le nombre de succès est donc fixé à 1 , mais le
nombre d’essais total Y est aléatoire et peut prendre n’importe quelle
valeur entière supérieure ou égale à 1 . De plus,

∀k = 1, 2, . . . P [Y = k ] = p(1 − p)k −1

où p est toujours la probabilité de succès des épreuves de Bernoulli.


On dit alors que Y suit la loi géométrique de paramètre p, notée G(p).
Caractéristiques
peiu
L’espérance de Y vaut 1/p, sa variance (1 − p)/p2 et φY (u ) = 1− qeiu

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 10 / 34


Loi géométrique

Exercice d’application:
Un certain matériel a une probabilité p = 0, 02 de défaillance à
chaque mise en service.
On procède à l’expérience suivante, l’appareil est mis en marche,
arrêté, remis en marche, arrêté, jusqu’à ce qu’il tombe en panne.
Soit X la v.a. représentant le nombre d’essais nécessaires pour
obtenir la panne.
1. Quelle est la loi de probabilité de la v.a. X ?
2. Quelle est la probabilité que ce matériel tombe en panne (pour la
première fois) au dixième essai ?.

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 11 / 34


Loi hypergéométrique
Considérons une population d’effectif N dont on sait qu’un
pourcentage p d’éléments possèdent un caractère étudié C. On extrait
au hasard un échantillon de n éléments, tirage exhaustif de n
éléments (c’est-à-dire n tirages sans remise). Quelle est alors la
probabilité qu’exactement k d’entre eux possèdent le caractère C ?
Si m désigne le nombre d’éléments possédant le caractère C, alors
p = m/N. Il s’agit d’un tirage simultané de n objets parmi N et on
s’intéresse à la variable aléatoire X égale au nombre k (k ≤ m)
d’apparitions d’éléments ayant le caractère étudié sachant que leur
effectif dans la population est m.
Loi de probabilité : Parmi les n objet tirés, k sont souhaités et n − k ne
k
le sont pas. Il y a Cm façons de constituer des lots de k objets parmi
les m présentant le caractère étudié et CNn− k
−m façons de choisir les
n
autres. Le nombre de cas possibles est CN . Finalement, la loi de
probabilité est fournie par la formule :
k
Cm · CNn−
−m
k k
CNp · CNn− k
(1−p)
P (X = k ) = = , avec 0 ≤ k ≤ [Np]
CNn CNn
Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 12 / 34
Loi hypergéométrique

On note H(N , n, p) la loi hypergéométrique de paramètre N , n et p.


Caractéristiques
On peut montrer que l’espérance mathématique de X ,→ H(N , n, p)
est E (X ) = np (comme dans le cas de la loi binomiale). Sa variance
−n
est V (X ) = NN −1
npq.
Convergence:
On remarque que si n (la taille de l’échantillon) est petit devant N,
alors la variance est sensiblement npq, c’est-à-dire celle de la loi
binomiale. Ce résultat n’est pas un hasard... :
La limite pour N infini de sorte que m/N tende vers une limite finie p
de la loi H(N , n, p) est la loi binomiale B(n, p).

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 13 / 34


Loi de Poisson

Une v.a. X de loi de Poisson de paramètre λ, notée P(λ), vérifie

λk
∀k ∈ N, P [X = k ] = exp(−λ)
k!
L’espérance et la variance de X sont égales à λ.
On utilise la loi de Poisson pour modéliser le nombre de tâches qui
arrivent à un serveur informatique pendant une minute, le nombre de
globules rouges dans un ml de sang, le nombre d’accidents du travail
dans une entreprise pendant un an...
Question: Trouver la fonction caractéristique de la loi de poisson.

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 14 / 34


Loi uniforme

Mis à part le prestige dû à son nom, la loi uniforme est la loi de


l’absence d’information. Supposons qu’une v.a. X prenne les valeurs
1, 2, . . . , n, mais que nous n’ayons aucune idée de la loi de probabilité
de X ; dans ce cas, après justification, on peut affecter à chaque valeur
le même poids : 1/n. Et

1
∀k = 1, . . . , n, P [X = k ] =
n
On montre facilement que

n+1 (n + 1)(n − 1)
E [X ] = et Var(X ) =
2 12

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 15 / 34


Plan

1 Lois discrètes usuelles

2 Lois usuelles continues

3 Entropie de Shannon

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 16 / 34


Loi uniforme

Une v.a. X suit une loi uniforme sur [a, b], si elle admet pour densité
(
1
b −a
si a ≤ x ≤ b
f (x ) =
0 sinon

La fonction de répartition F de X est donnée par :



Z x 0
 si x < a
F (x ) = P [X ≤ x ] = f (t )dt = x −a
si a ≤ x ≤ b
−∞  b −a
1 si x > b

L’espérance de X est E [X ] = (b + a)/2 et la variance de X est


Var(X ) = (b − a)2 /12.
Application : soit X de loi uniforme sur [0, 10]. Calculer
P [X < 3], P [X > 6], P [3 < X < 8].

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 17 / 34


Loi normale
Loi normale centrée réduite C’est la loi la plus importante. Son rôle
est central dans de nombreux modèles probabilistes et dans toute la
statistique. Elle possède des propriétés intéressantes qui la rendent
agréable à utiliser.
Une v.a. X suit une loi normale (ou loi gaussienne ou loi de
LaplaceGauss) N (0, 1) si sa densité f est donnée par

x2
 
1
f (x ) = √ exp − , pour tout x ∈ R
2π 2
R
Remarque : vérifions que f est d’intégrale 1 . Notons I = R f .
Z  Z 
2
I = f (x )d x f (y )dy
R R
 2
x + y2
Z Z 
1
= exp − dx dy
2π R R 2

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 18 / 34


Loi normale
Loi normale centrée réduite On fait un changement de variable
polaire : x = r cos θ et y = r sin θ . Alors dx dy = r dr dθ et on
obtient :
Z +∞ Z 2π
1
I2 = exp −r 2 /2 r dθdr = 1

2π 0 0

Rappel : si X suit une loi normale N (0, 1), alors pour tous a < b,

b
Z  2
1 x
P [a ≤ X ≤ b ] = √ exp − dx = φ(b) − φ(a)
2π a 2
où φ est la fonction de répartition de X . Rappelons que φ est une
primitive de la densité f . Mais il n’existe pas de forme analytique de la
primitive de f . On doit donc lire les valeurs de φ dans la table
statistique de la loi normale centrée réduite, ou la faire calculer par un
logiciel adapté (ex : excel, matlab, R).

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 19 / 34


Loi normale
Loi normale centrée réduite La courbe de la densité de la loi
normale N (0, 1) porte le nom de "courbe en cloche". Elle tend vers 0
en l’infini, est croissante sur R− , puis décroissante. Elle admet donc
un maximum en 0 . On peut voir aussi qu’elle est symétrique, de
centre de symétrie 0 .

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 20 / 34


Utilisation des tables
Pour calculer P [a ≤ X ≤ b] ou P [X ≤ x ], on a recours au calcul
numérique sur ordinateur ou, plus simplement, à une table qui donne
P [X ≤ x ] pour tout décimal positif x à deux chiffres après la virgule.
Puis il faut remarquer que

P [a ≤ X ≤ b] = P [X ≤ b] − P [X ≤ a]
puis on lit les probabilités dans la table si a et b sont positifs. Pour
trouver P [X ≤ −x ] quand x > 0, on utilise le fait que X et −X ont
même loi :

P [X ≤ −x ] = P [−X ≥ x ] = P [X ≥ x ] = 1 − P [X ≤ x ]
Exemple : on cherche à calculer P [1 ≤ X ≤ −1].

P [−1 ≤ X ≤ 1] = P [X ≤ 1] − P [X ≤ −1] = P [X ≤ 1] − (1 − P [X ≤ 1])


= 2P [X ≤ 1] − 1 = 2 × 0.8413 − 1 = 0, 6826
Exemple : chercher u ∈ R tel que P [−u ≤ X ≤ u ] = 0.90.
Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 21 / 34
Loi normale : cas général

Soient m ∈ R et σ > 0. Une v.a. X suit une loi normale N (m, σ) si sa


densité f est donnée par

(x − m)2
 
1
f (x ) = √ exp − , pour tout x ∈ R
σ 2π 2σ 2

Proposition
X −m
Si X suit une loi normale N (m, σ), Z = σ suit une loi normale
centrée réduite N (0, 1), et

E [X ] = m et Var(X ) = σ 2

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 22 / 34


Loi normale : cas général

On peut ainsi facilement se ramener à la loi normale centrée réduite.


Comme la fonction de répartition φ de la loi normale centrée réduite
est tabulée, on se ramènera même systématiquement à cette loi pour
calculer des probabilités. Plus précisément, si X est de loi N (m, σ), et
a et b sont deux réels, on calcule P [a ≤ X ≤ b] ainsi :
 
a−m X −m b−m
P [a ≤ X ≤ b] = P ≤ ≤
σ σ σ
 
a−m b−m
=P ≤Z ≤
σ σ

où Z est de loi N (0, 1). Donc


   
b−m a−m
P [a ≤ X ≤ b] = φ −φ
σ σ

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 23 / 34


Loi normale : cas général

On peut aussi remarquer que si Z est de loi N (0, 1), alors −Z aussi
et donc, pour u > 0,

P [−u ≤ Z ≤ u ] = P [Z ≤ u ] − P [Z ≤ −u ] = P [Z ≤ u ] − P [Z ≥ u ]
= P [Z ≤ u ] − (1 − P [Z ≤ u ]) = 2P [Z ≤ u ] − 1

Exemple : Soit X une v.a. de loi N (15, 4). Quelle est la probabilité
P [10 ≤ X ≤ 22] ?

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 24 / 34


Loi normale : cas général

On peut aussi remarquer que si Z est de loi N (0, 1), alors −Z aussi
et donc, pour u > 0,

P [−u ≤ Z ≤ u ] = P [Z ≤ u ] − P [Z ≤ −u ] = P [Z ≤ u ] − P [Z ≥ u ]
= P [Z ≤ u ] − (1 − P [Z ≤ u ]) = 2P [Z ≤ u ] − 1

Exemple : Soit X une v.a. de loi N (15, 4). Quelle est la probabilité
P [10 ≤ X ≤ 22] ?

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 25 / 34


Loi normale : cas général

Exercice d’application:
Soit X une variable aléatoire gaussienne. On sait que :

P [X ≤ 3] = 0, 5517 et P [X ≥ 7] = 0, 0166

Déterminer la moyenne et l’écart-type de X .

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 26 / 34


Loi log-normale

Définition : v.a. log-normale


Une v.a. Y est dite log-normale si la v.a. ln(Y ) suit une loi normale,
c.-à-d.
ln(Y ) ∼ N (m, σ 2 )
Elle est habituellement notée Log − N (m, σ 2 ).
Cette loi est parfois appelée loi de Galton.

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 27 / 34


Loi log-normale

Définition : v.a. log-normale


Une v.a. Y est dite log-normale si la v.a. ln(Y ) suit une loi normale,
c.-à-d.
ln(Y ) ∼ N (m, σ 2 )
Elle est habituellement notée Log − N (m, σ 2 ).
Cette loi est parfois appelée loi de Galton.

Domaines d’utilisation de cette loi:


• En marchés financiers: La loi log-normale est souvent utilisée en
analyse quantitative pour représenter les cours des instruments
financiers (notamment les actions, cours de change, taux
d’intérêt).
• En biologie, on peut l’utiliser pour modéliser le poids des
organismes vivants.

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 27 / 34


Loi log-normale

• Le nombre de mots dans une phrase


• En géologie et en mines pour représenter des teneurs par
exemple. On peut aussi s’en servir pour représenter les
distributions de grand nombre de v.a. positives par définition (ex.
crue annuelle maximale, précipitation annuelle maximale,
magnitude de tremblement de terre, concentration de
contaminants....)
• En mécanique des fluides, la loi log-normale donne une bonne
approximation de la fonction de distribution en taille de gouttes à
la sortie d’un aérosol ou d’un jet pulvérisé.
• En hydrologie, les débits mensuels de petits bassins versants à
régimes pluviaux.
• En biologie, on peut l’utiliser pour modéliser le poids des
organismes vivants.

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 28 / 34


Loi exponentielle

Soit λ un réel strictement positif. Une v.a. X est dite de loi


exponentielle E(λ) si sa densité est donnée par
(
0 si x < 0
f (x ) =
λ exp(−λx ) si x ≥ 0

La v.a. X de loi E(λ) ne prend que des valeurs positives.


Elle est utilisée dans de nombreuses applications :
• durée de fonctionnement d’un matériel informatique avant la
première panne,
• désintégration radioactive,
• temps séparant l’arrivée de deux "clients" dans un phénomène
d’attente (guichet, accès à un serveur informatique, arrivée d’un
accident du travail...).

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 29 / 34


Loi exponentielle
Proposition
La fonction de répartition de la loi E(λ) est égale à
(
0 si x < 0
F (x ) =
1 − exp(−λx ) si x ≥ 0
De plus,

1 1
E [X ] = , Var(X ) =
λ λ2
La loi exponentielle vérifie la propriété d’absence de mémoire. Soit X
un v.a. de loi exponentielle. Alors pour tous s, t > 0,

P [X > t + s | X > t ] = P [X > s]

Preuve: Dans la séance du cours.


Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 30 / 34
Loi de Cauchy

La loi de Cauchy (Ou encore loi de Lorentz), est une loi de probabilité
continue qui doit son nom au mathématicien Augustin Louis Cauchy.
Sa densité est définie par:
a
f (x , x0 , a) =
π(x − x0 )2 + π a2

Où a > 0 qui représente un paramètre d’échelle et x0 ∈ R


représentant un paramètre de position.

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 31 / 34


Loi de Cauchy

La loi de Cauchy (Ou encore loi de Lorentz), est une loi de probabilité
continue qui doit son nom au mathématicien Augustin Louis Cauchy.
Sa densité est définie par:
a
f (x , x0 , a) =
π(x − x0 )2 + π a2

Où a > 0 qui représente un paramètre d’échelle et x0 ∈ R


représentant un paramètre de position.
La fonction ainsi définie s’appelle une lorentzienne. Elle apparaît par
exemple en spectroscopie pour modéliser des raies d’émission.

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 31 / 34


Loi de Cauchy

Proposition
La fonction de répartition de la loi de Cauchy est égale à

1 1 x − x0 
F (x , x0 , a) = + arctan
2 π a
La fonction caractéristique de cette loi est donnée par :

φX (t ) = eix0 t −a|t |
De plus,
la loi de Cauchy n’admet ni espérance ni écart type. Et il en va de
même pour tout moment d’ordre supérieur.

Explication: Dans la séance du cours.

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 32 / 34


Plan

1 Lois discrètes usuelles

2 Lois usuelles continues

3 Entropie de Shannon

Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 33 / 34


Entropie de Shannon
En théorie de l’information, l’entropie de Shannon, ou plus simplement
entropie, est une fonction mathématique qui, intuitivement, correspond
à la quantité d’information contenue ou fournie par une source
d’information. Cette source peut être un texte écrit dans une langue
donnée, un signal électrique ou encore un fichier informatique
quelconque (suite d’octets). Elle a été introduite par Claude Shannon.
Si X est une variable aléatoire discrète, l’entropie de X est définie par:
X
H (X ) = − P (X = x ) logb (P (X = x ))
x
Dans cette définition, la base du logarithme est souvent choisie égale
à2.
Pour une variable aléatoire X admettant une densité f , son entropie
est définie par Z
H (X ) = − f (x ) log(f (x ))dx
R
L’entropie se mesure alors en shannons, ou en bits (binary information
unit).
Professeur: JAMALI-ALAOUI AMINE () October 21, 2024 34 / 34

Vous aimerez peut-être aussi