Chapitre III Lois Et Couple de v. A
Chapitre III Lois Et Couple de v. A
M’hamed El-Louh
ENSAM de Meknès
Définition
On appelle variable certaine, une v.a.r conctante. Autrement dit, il existe un
nombre réel a tel que X(Ω) = {a}. Par suite p(X = a) = 1, E(X) = a et
V(X) = 0.
Définition
On appelle variable certaine, une v.a.r conctante. Autrement dit, il existe un
nombre réel a tel que X(Ω) = {a}. Par suite p(X = a) = 1, E(X) = a et
V(X) = 0.
Représentation graphique :
FX (x)
1
x
1
Définition
Soit une variable aléatoire X définie sur l’ensemble {1, 2, . . . , n}. X suit une loi
de probabilité uniforme si :
1
P(X = k) = , pour tout k ∈ {1, 2, . . . , n}.
n
Définition
Soit une variable aléatoire X définie sur l’ensemble {1, 2, . . . , n}. X suit une loi
de probabilité uniforme si :
1
P(X = k) = , pour tout k ∈ {1, 2, . . . , n}.
n
Cette loi est notée X ∼ U(n).
Définition
Soit une variable aléatoire X définie sur l’ensemble {1, 2, . . . , n}. X suit une loi
de probabilité uniforme si :
1
P(X = k) = , pour tout k ∈ {1, 2, . . . , n}.
n
Cette loi est notée X ∼ U(n).
Propriété
n+1 n2 −1
l’espérance : E(X) = 2 et la variance: Var(X) = 12 .
Définition
Soit une variable aléatoire X définie sur l’ensemble {1, 2, . . . , n}. X suit une loi
de probabilité uniforme si :
1
P(X = k) = , pour tout k ∈ {1, 2, . . . , n}.
n
Cette loi est notée X ∼ U(n).
Propriété
n+1 n2 −1
l’espérance : E(X) = 2 et la variance: Var(X) = 12 .
La fonction de répartition FX (x) est une fonction en escalier avec des
sauts en k ∈ {1, 2, . . . , n}.
∑ ∑
n ∑
n
1 1∑
n
n+1
E(X) = xP(X = x) = kP(X = k) = k = k=
n n 2
x∈X(Ω) k k k
∑ ∑
n ∑
n
1 1∑
n
n+1
E(X) = xP(X = x) = kP(X = k) = k = k=
n n 2
x∈X(Ω) k k k
∑
n
1 n+1 2 (n + 1)(2n + 1) n+1 2
V(X) = E(X2 ) − (E(X))2 = k2 −( ) = −( ) .
n 2 6 2
k
n2 − 1
Var(X) =
12
∑ ∑
n ∑
n
1 1∑
n
n+1
E(X) = xP(X = x) = kP(X = k) = k = k=
n n 2
x∈X(Ω) k k k
∑
n
1 n+1 2 (n + 1)(2n + 1) n+1 2
V(X) = E(X2 ) − (E(X))2 = k2 −( ) = −( ) .
n 2 6 2
k
n2 − 1
Var(X) =
12
Exemple
P(X = k) = 16 , k ∈ {1, 2, 3, 4, 5, 6}.
∑ ∑
n ∑
n
1 1∑
n
n+1
E(X) = xP(X = x) = kP(X = k) = k = k=
n n 2
x∈X(Ω) k k k
∑
n
1 n+1 2 (n + 1)(2n + 1) n+1 2
V(X) = E(X2 ) − (E(X))2 = k2 −( ) = −( ) .
n 2 6 2
k
n2 − 1
Var(X) =
12
Exemple
P(X = k) = 16 , k ∈ {1, 2, 3, 4, 5, 6}.
35
E(X) = 3.5, Var(X) = 12 ≈ 2.92.
Représentation graphique :
FX (x)
1
0.8
0.6
0.4
0.2
x
1 2 3 4 5
Définition
Soit X une variable aléatoire représentant le nombre de succès sur un ensemble
de n épreuves indépendantes identiques, où chaque épreuve a une probabilité de
succès p.
Définition
Soit X une variable aléatoire représentant le nombre de succès sur un ensemble
de n épreuves indépendantes identiques, où chaque épreuve a une probabilité de
succès p. La variable aléatoire X suit une loi binomiale de paramètres (n, p)
avec:
X(Ω) = {0, 1, 2, ..., n}.
La loi de probabilité de X est donnée par :
P(X = k) = Ckn pk (1 − p)n−k , pour k ∈ {0, 1, . . . , n}.
On la note X ∼ B(n, p).
Définition
Soit X une variable aléatoire représentant le nombre de succès sur un ensemble
de n épreuves indépendantes identiques, où chaque épreuve a une probabilité de
succès p. La variable aléatoire X suit une loi binomiale de paramètres (n, p)
avec:
X(Ω) = {0, 1, 2, ..., n}.
La loi de probabilité de X est donnée par :
P(X = k) = Ckn pk (1 − p)n−k , pour k ∈ {0, 1, . . . , n}.
On la note X ∼ B(n, p).
Propriété
Soit X ∼ B(n, p), une variable aléatoire suivant une loi binomiale. L’espérance
et la variance de X est donnée par :
∑
n
E(X) = k · P(X = k).
k=0
∑
n
E(X) = k · P(X = k).
k=0
∑
n
E(X) = k · Ckn pk (1 − p)n−k .
k=0
k · Ckn = n · Ck−1
n−1 ,
∑
n
E(X) = n · Ck−1 k
n−1 p (1 − p)
n−k
.
k=1
∑
n−1
E(X) = n · Cjn−1 pj+1 (1 − p)(n−1)−j .
j=0
∑
n−1
E(X) = n · Cjn−1 pj+1 (1 − p)(n−1)−j .
j=0
∑
n−1
E(X) = n · p · Cjn−1 pj (1 − p)(n−1)−j .
j=0
La somme correspond à :
∑
n−1
Cjn−1 pj (1 − p)(n−1)−j = (p + (1 − p))n−1 = 1.
j=0
∑
n−1
E(X) = n · Cjn−1 pj+1 (1 − p)(n−1)−j .
j=0
∑
n−1
E(X) = n · p · Cjn−1 pj (1 − p)(n−1)−j .
j=0
La somme correspond à :
∑
n−1
Cjn−1 pj (1 − p)(n−1)−j = (p + (1 − p))n−1 = 1.
j=0
E(X) = n · p.
Concernant la variance
Var(X) = E(X2 ) − (E(X))2 = E(X(X − 1) + X) − (E(X))2 .
Exemple
Dans une urne contenant 5 boules blanches, 4 boules rouges et 3 boules noires,
on tire au hasard, avec remise 4 boules. et on s’intéresse à la réalisation de
l’événement : S=”Obtenir une boule blanche”.
Donner la loi de X, E(X) et V(X) .
Calculer la Probabilité d’obtenir 2 boules blanche.
Probabilité d’obtenir au moins une boule blanche.
Exemple
n = 4 : nombre total de tirages (épreuves).
5
p= 12 : probabilité d’obtenir une boule blanche lors d’un tirage.
Exemple
n = 4 : nombre total de tirages (épreuves).
5
p= 12 : probabilité d’obtenir une boule blanche lors d’un tirage.
5
Alors X suit une loi binomiale, X ∼ B(4, 12 ).
X(Ω) = {0, 1, 2, ..., n}.
5 k 5 4−k
P(X = k) = Ck4 ( 12 ) (1 − 12 ) , pourk ∈ {0, 1, 2, 3, 4}.
Calculer la Probabilité d’obtenir 2 boules blanche.
5 2 5 4−2
P(X = 2) = C24 ( 12 ) (1 − 12 ) .
Exemple
n = 4 : nombre total de tirages (épreuves).
5
p= 12 : probabilité d’obtenir une boule blanche lors d’un tirage.
5
Alors X suit une loi binomiale, X ∼ B(4, 12 ).
X(Ω) = {0, 1, 2, ..., n}.
5 k 5 4−k
P(X = k) = Ck4 ( 12 ) (1 − 12 ) , pourk ∈ {0, 1, 2, 3, 4}.
Calculer la Probabilité d’obtenir 2 boules blanche.
5 2 5 4−2
P(X = 2) = C24 ( 12 ) (1 − 12 ) .
Probabilité d’obtenir au moins une boule blanche.
P(X ≥ 1) = 1 − P(X < 1).
Exemple
n = 4 : nombre total de tirages (épreuves).
5
p= 12 : probabilité d’obtenir une boule blanche lors d’un tirage.
5
Alors X suit une loi binomiale, X ∼ B(4, 12 ).
X(Ω) = {0, 1, 2, ..., n}.
5 k 5 4−k
P(X = k) = Ck4 ( 12 ) (1 − 12 ) , pourk ∈ {0, 1, 2, 3, 4}.
Calculer la Probabilité d’obtenir 2 boules blanche.
5 2 5 4−2
P(X = 2) = C24 ( 12 ) (1 − 12 ) .
Probabilité d’obtenir au moins une boule blanche.
P(X ≥ 1) = 1 − P(X < 1).
Proposition
Soient X1 et X2 deux variables indépendantes binomiales telles que
X1 ∼ B(n1 , p) et X2 ∼ B(n2 , p), alors X1 + X2 ∼ B(n1 + n2 , p).
CkN1 Cn−k
N2
P(X = k) = , où k ∈ X(Ω),
CnN
CkN1 Cn−k
N2
P(X = k) = , où k ∈ X(Ω),
CnN
Remarque
On trouve parfois la loi hypergéométrique exprimée en fonction du paramètre
p = NN1 et non du paramètre N1 .
M’hamed El-Louh (ENSAM) 11/03 17 / 50
Exemple
Dans l’exemple précédent, si on suppose que le tirage est sans remise. Alors
X ∼ H(N = 12, N1 = 5, n = 4)
Exemple
Un lac renferme une centaine de poissons dont un quart sont des brochets. On
pêche 10 poissons, soit le X nombre de brochets dans la prise. Donner la loi de
X et déterminer ses caractéristiques.
Définition
Soit une épreuve de Bernoulli dont la probabilité de succès est p. On répète
cette épreuve de manière indépendante jusqu’au premier succès.
On appelle X la variable aléatoire modélisant le nombre d’essais nécessaires
pour obtenir le premier succès.
Définition
Soit une épreuve de Bernoulli dont la probabilité de succès est p. On répète
cette épreuve de manière indépendante jusqu’au premier succès.
On appelle X la variable aléatoire modélisant le nombre d’essais nécessaires
pour obtenir le premier succès.
On dit que X suit une loi géométrique de paramètre p ∈]0, 1[,
notée X ∼ Geo(p),
X(Ω) = N∗ ,
Définition
Soit une épreuve de Bernoulli dont la probabilité de succès est p. On répète
cette épreuve de manière indépendante jusqu’au premier succès.
On appelle X la variable aléatoire modélisant le nombre d’essais nécessaires
pour obtenir le premier succès.
On dit que X suit une loi géométrique de paramètre p ∈]0, 1[,
notée X ∼ Geo(p),
X(Ω) = N∗ ,
loi de probabilité est donnée par :
Définition
Soit une épreuve de Bernoulli dont la probabilité de succès est p. On répète
cette épreuve de manière indépendante jusqu’au premier succès.
On appelle X la variable aléatoire modélisant le nombre d’essais nécessaires
pour obtenir le premier succès.
On dit que X suit une loi géométrique de paramètre p ∈]0, 1[,
notée X ∼ Geo(p),
X(Ω) = N∗ ,
loi de probabilité est donnée par :
Définition
Soit une épreuve de Bernoulli dont la probabilité de succès est p. On répète
cette épreuve de manière indépendante jusqu’au premier succès.
On appelle X la variable aléatoire modélisant le nombre d’essais nécessaires
pour obtenir le premier succès.
On dit que X suit une loi géométrique de paramètre p ∈]0, 1[,
notée X ∼ Geo(p),
X(Ω) = N∗ ,
loi de probabilité est donnée par :
Convergence :
La série converge si et seulement si |x|< 1.
Convergence :
La série converge si et seulement si |x|< 1.
Dans ce cas, la somme est donnée par :
1
S= , pour |x|< 1.
1−x
Définition
La loi de Poisson est la loi des événements rares où le futur ne dépend pas
du passé (pannes d’une machine, appels téléphoniques dans un standard,
...).
Définition
La loi de Poisson est la loi des événements rares où le futur ne dépend pas
du passé (pannes d’une machine, appels téléphoniques dans un standard,
...).
La loi de Poisson décrit le comportement du nombre d’événements X qui
se produisent dans un intervalle de temps fixe t si ces événements se
produisent à une fréquence moyenne connue λ .
La probabilité de X, est donnée par :
Définition
La loi de Poisson est la loi des événements rares où le futur ne dépend pas
du passé (pannes d’une machine, appels téléphoniques dans un standard,
...).
La loi de Poisson décrit le comportement du nombre d’événements X qui
se produisent dans un intervalle de temps fixe t si ces événements se
produisent à une fréquence moyenne connue λ .
La probabilité de X, est donnée par :
e−λ λk
P(X = k) = , k ∈ N,
k!
On note que X ∼ P(λ), ce qui signifie que X suit une loi de Poisson de
paramètre λ.
Preuve
∞
∑ ∞
∑
e−λ λk −λ λk
E(X) = k =e = e−λ λeλ = λ.
k! (k − 1)!
k=0 k=0
Preuve
∞
∑ ∞
∑
e−λ λk −λ λk
E(X) = k =e = e−λ λeλ = λ.
k! (k − 1)!
k=0 k=0
∞
∑ ∑ λk ∞ ∑ λk ∞
λk
= e−λ k(k − 1) + e−λ k = e−λ + λ = λ2 + λ.
k! k! (k − 2)!
k=0 k=0 k=0
Par conséquent
Preuve
∞
∑ ∞
∑
e−λ λk −λ λk
E(X) = k =e = e−λ λeλ = λ.
k! (k − 1)!
k=0 k=0
∞
∑ ∑ λk ∞ ∑ λk ∞
λk
= e−λ k(k − 1) + e−λ k = e−λ + λ = λ2 + λ.
k! k! (k − 2)!
k=0 k=0 k=0
Par conséquent
1, 252 e−1,25
P(X = 2) =
2!
La probabilité pour qu’en 1 minute il arrive 4 personnes au plus est :
1, 252 e−1,25
P(X = 2) =
2!
La probabilité pour qu’en 1 minute il arrive 4 personnes au plus est :
∑
4
1, 25k e−1,25
P(X ≤ 4) =
k!
k=0
P(X ≥ 3) = 1 − P(X ≤ 2)
50
P(X = 0) = e−5 = e−5 = 0, 0067
0!
2 Le nombre de défauts est compris entre 2 et 4 :
52 53 54
= e−5 + e−5 + e−5
2! 3! 4!
= 0, 39
Exercice
Soit X une v.a.r telle que X(Ω) = N . et
2
∀n ∈ N∗ , P(X = n) = P(X = n − 1).
n
Déterminer la loi de X.
Conditions:
Soit X ∼ B(n, p) telle que :
n ≥ 50,
p ≤ 0.1,
np ≤ 5.
Dans ces conditions, la loi binomiale peut être approximée par la loi de
Poisson :
Bin(n, p) ≈ P(λ = np).
Conditions:
Soit X ∼ B(n, p) telle que :
n ≥ 50,
p ≤ 0.1,
np ≤ 5.
Dans ces conditions, la loi binomiale peut être approximée par la loi de
Poisson :
Bin(n, p) ≈ P(λ = np).
Exemple d’application :
Si n = 100 et p = 0.02, alors : λ = np = 100 × 0.02 = 2.
Approximation :
X ∼ P(λ = 2).
2k
P(X = k) ≃ e−2 .
k!
Dans le tableaux suivant, on peut comparer quelques valeurs des deux lois:
k 0 1 2 3
B (2000; 1/1000), P(X = k) 0.13520 0, 27067 0, 27081 0, 18053
P(2), P(X = k) 0, 13534 0, 27067 0, 27067 0, 18045
k 4 5
B (2000; 1/1000), P(X = k) 0, 09022 0, 03605
P(2), P(X = k) 0, 09022 0, 03609
Conditions
Soit X ∼ H(N, N1 , n), la loi hypergéométrique de paramètres N (taille
totale), N1 (nombre d’éléments favorables) et n (taille de l’échantillon).
Si le rapport N
n > 10, alors on peut approximer la loi hypergéométrique
par une loi binomiale :
( )
N1
H(N, N1 , n) ≈ B n, .
N
Poisson n
∀n ∈ N, P(X = n) = exp(−λ) λn! λ λ
P(λ)
géométrique
∀n ∈ N∗ , P(X = n) = p(1 − p)n−1 1 1−p
G⌉≀(p) p p2
Définition
La loi conjointe (ou loi mutuelle) de X et de Y est la loi du couple (X, Y) :
∀(x, y) ∈ X(Ω) × Y(Ω), ∑
P(X = x, Y = y) = P(X = x ∩ Y = y), Avec (x,y)∈Z(Ω) P(Z = (x, y)) = 1.
Valeurs de X | Y y1 y2 ··· ym
x1 P1,1 P1,2 ··· P1,m
x2 P2,1 P2,2 ··· P2,m
.. .. .. .. ..
. . . . .
xn Pn,1 Pn,2 ··· Pn,m
Table: Loi conjointe de X et Y.
∑
∀y ∈ Y(Ω), P(Y = y) = P(X = x, Y = y).
x∈X(Ω)
P(X = x; Y = y)
P(X = x | Y = y) = .
P(Y = y)
Solution
Loi conjointe du couple (X, Y)
{
1
16 , si x = y,
P(X = x, Y = y) = 1
8, si x > y.
X 1 2 3 4
1 2 2
PY=2 (X = x) 0 5 5 5
Y 1 2 3 4
2 2 2 1
PX=4 (Y = y) 7 7 7 7
Définition
X et Y sont dites indépendantes si et seulement si
∀(x, y) ∈ X(Ω) × Y(Ω), on a
Autrement dit, pour tout y tel que P(Y = y) > 0; la loi conditionnelle de X
sachant (Y = y) coincide avec la loi de X.
X\Y a b P(X = x)
1 0.2 0.3 0.5
2 0.1 0.4 0.5
P(Y = y) 0.3 0.7 1.0
Probabilités marginales :
Définition de la covariance
La covariance de deux variables aléatoires X et Y de carré intégrable, notée
Cov(X, Y), est donnée par :
Formule équivalente
Une formule équivalente pour la covariance est :
Cov(X, Y) = 0.
Cov(X, Y)
ρ(X, Y) = √
Var(X) Var(Y)
Propriété
−1 ≤ ρ(X, Y) ≤ 1.
Plus |ρ(X, Y)| est proche de 1 plus la dépendance entre X et Y est forte.
Définition
Soient X et Y deux variables aléatoires discrètes indépendantes. La somme
Z = X + Y est une variable aléatoire dont la loi est donnée par :
∑
P(Z = k) = P(X = i) · P(Y = k − i), ∀k ∈ Z.
i
Propriété
Soient X et Y deux variables aléatoires discrètes. Alors
Si X et Y sont indépendantes, alors :
Calcul :
P(Z = 2) = P(X = 1, Y = 1) = 19 .
P(Z = 3) = 29 , car (X, Y) ∈ {(1, 2), (2, 1)}.
P(Z = 4) = 39 , car (X, Y) ∈ {(1, 3), (2, 2), (3, 1)}.
Calcul :
P(Z = 2) = P(X = 1, Y = 1) = 19 .
P(Z = 3) = 29 , car (X, Y) ∈ {(1, 2), (2, 1)}.
P(Z = 4) = 39 , car (X, Y) ∈ {(1, 3), (2, 2), (3, 1)}.
Loi de Z:
k 2 3 4 5 6
1 2 3 2 1
P(Z = k) 9 9 9 9 9