0% ont trouvé ce document utile (0 vote)
31 vues93 pages

Chapitre III Lois Et Couple de v. A

Le document présente les lois discrètes classiques des variables aléatoires, notamment la loi certaine, la loi uniforme, la loi de Bernoulli et la loi binomiale. Chaque loi est définie avec ses propriétés, notamment l'espérance et la variance, ainsi que des exemples illustratifs. Les concepts sont expliqués de manière structurée avec des définitions, des formules et des représentations graphiques.

Transféré par

haddaouihiba753
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
31 vues93 pages

Chapitre III Lois Et Couple de v. A

Le document présente les lois discrètes classiques des variables aléatoires, notamment la loi certaine, la loi uniforme, la loi de Bernoulli et la loi binomiale. Chaque loi est définie avec ses propriétés, notamment l'espérance et la variance, ainsi que des exemples illustratifs. Les concepts sont expliqués de manière structurée avec des définitions, des formules et des représentations graphiques.

Transféré par

haddaouihiba753
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Probabilités

Variable aléatoire réelle discrète:Lois discrètes classiques

M’hamed El-Louh

ENSAM de Meknès

M’hamed El-Louh (ENSAM) 11/03 1 / 50


Plan

1 Lois discrètes classiques

2 Couples de variables aléatoires discrètes


Variables aléatoires discrètes indépendantes

M’hamed El-Louh (ENSAM) 11/03 2 / 50


Lois discrètes classiques

M’hamed El-Louh (ENSAM) 11/03 3 / 50


loi certaine

Définition
On appelle variable certaine, une v.a.r conctante. Autrement dit, il existe un
nombre réel a tel que X(Ω) = {a}. Par suite p(X = a) = 1, E(X) = a et
V(X) = 0.

M’hamed El-Louh (ENSAM) 11/03 4 / 50


loi certaine

Définition
On appelle variable certaine, une v.a.r conctante. Autrement dit, il existe un
nombre réel a tel que X(Ω) = {a}. Par suite p(X = a) = 1, E(X) = a et
V(X) = 0.

Représentation graphique :

FX (x)
1

x
1

M’hamed El-Louh (ENSAM) 11/03 4 / 50


loi uniforme

Définition
Soit une variable aléatoire X définie sur l’ensemble {1, 2, . . . , n}. X suit une loi
de probabilité uniforme si :
1
P(X = k) = , pour tout k ∈ {1, 2, . . . , n}.
n

M’hamed El-Louh (ENSAM) 11/03 5 / 50


loi uniforme

Définition
Soit une variable aléatoire X définie sur l’ensemble {1, 2, . . . , n}. X suit une loi
de probabilité uniforme si :
1
P(X = k) = , pour tout k ∈ {1, 2, . . . , n}.
n
Cette loi est notée X ∼ U(n).

M’hamed El-Louh (ENSAM) 11/03 5 / 50


loi uniforme

Définition
Soit une variable aléatoire X définie sur l’ensemble {1, 2, . . . , n}. X suit une loi
de probabilité uniforme si :
1
P(X = k) = , pour tout k ∈ {1, 2, . . . , n}.
n
Cette loi est notée X ∼ U(n).

Propriété
n+1 n2 −1
l’espérance : E(X) = 2 et la variance: Var(X) = 12 .

M’hamed El-Louh (ENSAM) 11/03 5 / 50


loi uniforme

Définition
Soit une variable aléatoire X définie sur l’ensemble {1, 2, . . . , n}. X suit une loi
de probabilité uniforme si :
1
P(X = k) = , pour tout k ∈ {1, 2, . . . , n}.
n
Cette loi est notée X ∼ U(n).

Propriété
n+1 n2 −1
l’espérance : E(X) = 2 et la variance: Var(X) = 12 .
La fonction de répartition FX (x) est une fonction en escalier avec des
sauts en k ∈ {1, 2, . . . , n}.

M’hamed El-Louh (ENSAM) 11/03 5 / 50


Preuve

∑ ∑
n ∑
n
1 1∑
n
n+1
E(X) = xP(X = x) = kP(X = k) = k = k=
n n 2
x∈X(Ω) k k k

M’hamed El-Louh (ENSAM) 11/03 6 / 50


Preuve

∑ ∑
n ∑
n
1 1∑
n
n+1
E(X) = xP(X = x) = kP(X = k) = k = k=
n n 2
x∈X(Ω) k k k


n
1 n+1 2 (n + 1)(2n + 1) n+1 2
V(X) = E(X2 ) − (E(X))2 = k2 −( ) = −( ) .
n 2 6 2
k

n2 − 1
Var(X) =
12

M’hamed El-Louh (ENSAM) 11/03 6 / 50


Preuve

∑ ∑
n ∑
n
1 1∑
n
n+1
E(X) = xP(X = x) = kP(X = k) = k = k=
n n 2
x∈X(Ω) k k k


n
1 n+1 2 (n + 1)(2n + 1) n+1 2
V(X) = E(X2 ) − (E(X))2 = k2 −( ) = −( ) .
n 2 6 2
k

n2 − 1
Var(X) =
12

Exemple
P(X = k) = 16 , k ∈ {1, 2, 3, 4, 5, 6}.

M’hamed El-Louh (ENSAM) 11/03 6 / 50


Preuve

∑ ∑
n ∑
n
1 1∑
n
n+1
E(X) = xP(X = x) = kP(X = k) = k = k=
n n 2
x∈X(Ω) k k k


n
1 n+1 2 (n + 1)(2n + 1) n+1 2
V(X) = E(X2 ) − (E(X))2 = k2 −( ) = −( ) .
n 2 6 2
k

n2 − 1
Var(X) =
12

Exemple
P(X = k) = 16 , k ∈ {1, 2, 3, 4, 5, 6}.
35
E(X) = 3.5, Var(X) = 12 ≈ 2.92.

M’hamed El-Louh (ENSAM) 11/03 6 / 50


Exemple
La fonction de répartition FX (x) pour X ∼ U(5) est donnée par :


0, si x < 1,
FX (x) = 5k , si k ≤ x < k + 1, k ∈ {1, 2, 3, 4},


1, si x ≥ 5.

M’hamed El-Louh (ENSAM) 11/03 7 / 50


Exemple
La fonction de répartition FX (x) pour X ∼ U(5) est donnée par :


0, si x < 1,
FX (x) = 5k , si k ≤ x < k + 1, k ∈ {1, 2, 3, 4},


1, si x ≥ 5.

Représentation graphique :

FX (x)
1
0.8
0.6
0.4
0.2
x
1 2 3 4 5

M’hamed El-Louh (ENSAM) 11/03 7 / 50


Loi de Bernoulli
Définition
Une épreuve de Bernoulli est une expérience aléatoire ayant deux issues
possibles : Succès, avec une probabilité p et Échec, avec une probabilité 1 − p.

M’hamed El-Louh (ENSAM) 11/03 8 / 50


Loi de Bernoulli
Définition
Une épreuve de Bernoulli est une expérience aléatoire ayant deux issues
possibles : Succès, avec une probabilité p et Échec, avec une probabilité 1 − p.
On définit la variable aléatoire X telle que :
{
1, en cas de succès,
X=
0, en cas d’échec.

M’hamed El-Louh (ENSAM) 11/03 8 / 50


Loi de Bernoulli
Définition
Une épreuve de Bernoulli est une expérience aléatoire ayant deux issues
possibles : Succès, avec une probabilité p et Échec, avec une probabilité 1 − p.
On définit la variable aléatoire X telle que :
{
1, en cas de succès,
X=
0, en cas d’échec.

La loi de probabilité associée est donnée par :

P(X = k) = pk (1 − p)1−k , k ∈ {0, 1}.

On dit que X suit une loi de Bernoulli de paramètre p, notée X ∼ B(p).

M’hamed El-Louh (ENSAM) 11/03 8 / 50


Loi de Bernoulli
Définition
Une épreuve de Bernoulli est une expérience aléatoire ayant deux issues
possibles : Succès, avec une probabilité p et Échec, avec une probabilité 1 − p.
On définit la variable aléatoire X telle que :
{
1, en cas de succès,
X=
0, en cas d’échec.

La loi de probabilité associée est donnée par :

P(X = k) = pk (1 − p)1−k , k ∈ {0, 1}.

On dit que X suit une loi de Bernoulli de paramètre p, notée X ∼ B(p).

Caractéristiques de la loi de Bernoulli


Espérance : E(X) = p,
Variance : Var(X) = p(1 − p) = pq, avec q = 1 − p.
M’hamed El-Louh (ENSAM) 11/03 8 / 50
Exemple
On lance une pièce de monnaie bien équilibrée. Si on obtient face, c’est un
succès.
Univers : Ω = {F, P},
Probabilité de succès : p = 12 ,
Probabilité d’échec : q = 1 − p = 12 ,
Espérance : E(X) = 12 ,
Variance : V(X) = 14 .

M’hamed El-Louh (ENSAM) 11/03 9 / 50


Exemple
On lance une pièce de monnaie bien équilibrée. Si on obtient face, c’est un
succès.
Univers : Ω = {F, P},
Probabilité de succès : p = 12 ,
Probabilité d’échec : q = 1 − p = 12 ,
Espérance : E(X) = 12 ,
Variance : V(X) = 14 .
On lance un dé bien équilibré. Soit X l’événement ”obtenir un 5”.
Univers : Ω = {1, 2, 3, 4, 5, 6},
Probabilité de succès : p = 16 ,
Probabilité d’échec : q = 1 − p = 56 ,
Espérance : E(X) = 16 ,
5
Variance : V(X) = 36 .

M’hamed El-Louh (ENSAM) 11/03 9 / 50


Loi Binomiale

Définition
Soit X une variable aléatoire représentant le nombre de succès sur un ensemble
de n épreuves indépendantes identiques, où chaque épreuve a une probabilité de
succès p.

M’hamed El-Louh (ENSAM) 11/03 10 / 50


Loi Binomiale

Définition
Soit X une variable aléatoire représentant le nombre de succès sur un ensemble
de n épreuves indépendantes identiques, où chaque épreuve a une probabilité de
succès p. La variable aléatoire X suit une loi binomiale de paramètres (n, p)
avec:
X(Ω) = {0, 1, 2, ..., n}.
La loi de probabilité de X est donnée par :
P(X = k) = Ckn pk (1 − p)n−k , pour k ∈ {0, 1, . . . , n}.
On la note X ∼ B(n, p).

M’hamed El-Louh (ENSAM) 11/03 10 / 50


Loi Binomiale

Définition
Soit X une variable aléatoire représentant le nombre de succès sur un ensemble
de n épreuves indépendantes identiques, où chaque épreuve a une probabilité de
succès p. La variable aléatoire X suit une loi binomiale de paramètres (n, p)
avec:
X(Ω) = {0, 1, 2, ..., n}.
La loi de probabilité de X est donnée par :
P(X = k) = Ckn pk (1 − p)n−k , pour k ∈ {0, 1, . . . , n}.
On la note X ∼ B(n, p).

Propriété
Soit X ∼ B(n, p), une variable aléatoire suivant une loi binomiale. L’espérance
et la variance de X est donnée par :

E(X) = np, Var(X) = np(1 − p).

M’hamed El-Louh (ENSAM) 11/03 10 / 50


Preuve
Par définition, l’espérance est donnée par :


n
E(X) = k · P(X = k).
k=0

En remplaçant P(X = k) par sa formule on obtient :

M’hamed El-Louh (ENSAM) 11/03 11 / 50


Preuve
Par définition, l’espérance est donnée par :


n
E(X) = k · P(X = k).
k=0

En remplaçant P(X = k) par sa formule on obtient :


n
E(X) = k · Ckn pk (1 − p)n−k .
k=0

En utilisant la propriété des coefficients binomiaux :

k · Ckn = n · Ck−1
n−1 ,


n
E(X) = n · Ck−1 k
n−1 p (1 − p)
n−k
.
k=1

M’hamed El-Louh (ENSAM) 11/03 11 / 50


Preuve
Par un changement de variables donc


n−1
E(X) = n · Cjn−1 pj+1 (1 − p)(n−1)−j .
j=0

M’hamed El-Louh (ENSAM) 11/03 12 / 50


Preuve
Par un changement de variables donc


n−1
E(X) = n · Cjn−1 pj+1 (1 − p)(n−1)−j .
j=0


n−1
E(X) = n · p · Cjn−1 pj (1 − p)(n−1)−j .
j=0

La somme correspond à :


n−1
Cjn−1 pj (1 − p)(n−1)−j = (p + (1 − p))n−1 = 1.
j=0

M’hamed El-Louh (ENSAM) 11/03 12 / 50


Preuve
Par un changement de variables donc


n−1
E(X) = n · Cjn−1 pj+1 (1 − p)(n−1)−j .
j=0


n−1
E(X) = n · p · Cjn−1 pj (1 − p)(n−1)−j .
j=0

La somme correspond à :


n−1
Cjn−1 pj (1 − p)(n−1)−j = (p + (1 − p))n−1 = 1.
j=0

E(X) = n · p.
Concernant la variance
Var(X) = E(X2 ) − (E(X))2 = E(X(X − 1) + X) − (E(X))2 .

M’hamed El-Louh (ENSAM) 11/03 12 / 50


Exemple
On lance une pièce bien équilibrée 10 fois. Soit X la variable aléatoire
représentant le nombre de fois où on obtient ”Face”.

1 Quelle loi suit X ?


2 Quelle est la probabilité d’obtenir exactement 4 fois ”Face” ?
3 Quelle est la probabilité d’obtenir au plus 2 fois ”Face” ?
4 Quelle est la probabilité d’obtenir au moins 2 fois ”Face” ?

M’hamed El-Louh (ENSAM) 11/03 13 / 50


Solution
X suit une loi binomiale B(10, 12 ).

M’hamed El-Louh (ENSAM) 11/03 14 / 50


Solution
X suit une loi binomiale B(10, 12 ).
2).
( )4 ( )10−4
1 1
P(X = 4) = C410 1− = 0.205.
2 2

M’hamed El-Louh (ENSAM) 11/03 14 / 50


Solution
X suit une loi binomiale B(10, 12 ).
2).
( )4 ( )10−4
1 1
P(X = 4) = C410 1− = 0.205.
2 2
3. Probabilité d’obtenir au plus 2 fois ”Face” :

P(X ≤ 2) = P(X = 0) + P(X = 1) + P(X = 2).


( )0 ( )10
1 1 1
P(X = 0) = C010 = ,
2 2 1024
( )1 ( ) 9
1 1 1 10
P(X = 1) = C10 = ,
2 2 1024
( )2 ( ) 8
2 1 1 45
P(X = 2) = C10 = .
2 2 1024
Ainsi :
1 + 10 + 45 56
P(X ≤ 2) = = ≈ 0.0547.
1024 1024
M’hamed El-Louh (ENSAM) 11/03 14 / 50
Exemple
Supposons que 5% des pièces en sortie d’une chaîne de production soient
défectueuses. On souhaite connaître la probabilité qu’un échantillon de 20
pièces issues de cette chaîne ne contienne aucune pièce défectueuse.

Exemple
Dans une urne contenant 5 boules blanches, 4 boules rouges et 3 boules noires,
on tire au hasard, avec remise 4 boules. et on s’intéresse à la réalisation de
l’événement : S=”Obtenir une boule blanche”.
Donner la loi de X, E(X) et V(X) .
Calculer la Probabilité d’obtenir 2 boules blanche.
Probabilité d’obtenir au moins une boule blanche.

M’hamed El-Louh (ENSAM) 11/03 15 / 50


Solution

Exemple
n = 4 : nombre total de tirages (épreuves).
5
p= 12 : probabilité d’obtenir une boule blanche lors d’un tirage.

M’hamed El-Louh (ENSAM) 11/03 16 / 50


Solution

Exemple
n = 4 : nombre total de tirages (épreuves).
5
p= 12 : probabilité d’obtenir une boule blanche lors d’un tirage.
5
Alors X suit une loi binomiale, X ∼ B(4, 12 ).
X(Ω) = {0, 1, 2, ..., n}.
5 k 5 4−k
P(X = k) = Ck4 ( 12 ) (1 − 12 ) , pourk ∈ {0, 1, 2, 3, 4}.
Calculer la Probabilité d’obtenir 2 boules blanche.
5 2 5 4−2
P(X = 2) = C24 ( 12 ) (1 − 12 ) .

M’hamed El-Louh (ENSAM) 11/03 16 / 50


Solution

Exemple
n = 4 : nombre total de tirages (épreuves).
5
p= 12 : probabilité d’obtenir une boule blanche lors d’un tirage.
5
Alors X suit une loi binomiale, X ∼ B(4, 12 ).
X(Ω) = {0, 1, 2, ..., n}.
5 k 5 4−k
P(X = k) = Ck4 ( 12 ) (1 − 12 ) , pourk ∈ {0, 1, 2, 3, 4}.
Calculer la Probabilité d’obtenir 2 boules blanche.
5 2 5 4−2
P(X = 2) = C24 ( 12 ) (1 − 12 ) .
Probabilité d’obtenir au moins une boule blanche.
P(X ≥ 1) = 1 − P(X < 1).

M’hamed El-Louh (ENSAM) 11/03 16 / 50


Solution

Exemple
n = 4 : nombre total de tirages (épreuves).
5
p= 12 : probabilité d’obtenir une boule blanche lors d’un tirage.
5
Alors X suit une loi binomiale, X ∼ B(4, 12 ).
X(Ω) = {0, 1, 2, ..., n}.
5 k 5 4−k
P(X = k) = Ck4 ( 12 ) (1 − 12 ) , pourk ∈ {0, 1, 2, 3, 4}.
Calculer la Probabilité d’obtenir 2 boules blanche.
5 2 5 4−2
P(X = 2) = C24 ( 12 ) (1 − 12 ) .
Probabilité d’obtenir au moins une boule blanche.
P(X ≥ 1) = 1 − P(X < 1).

Proposition
Soient X1 et X2 deux variables indépendantes binomiales telles que
X1 ∼ B(n1 , p) et X2 ∼ B(n2 , p), alors X1 + X2 ∼ B(n1 + n2 , p).

M’hamed El-Louh (ENSAM) 11/03 16 / 50


Loi Hypergéométrique
Définition
Soit E un ensemble formé de N = (N1 + N2 ) éléments avec N1 éléments de
type S (succès) et N2 éléments de type S̄. On choisit au hasard, simultanément
ou successivement sans remise, n éléments dans l’ensemble E.

M’hamed El-Louh (ENSAM) 11/03 17 / 50


Loi Hypergéométrique
Définition
Soit E un ensemble formé de N = (N1 + N2 ) éléments avec N1 éléments de
type S (succès) et N2 éléments de type S̄. On choisit au hasard, simultanément
ou successivement sans remise, n éléments dans l’ensemble E.La variable
aléatoire X qui compte le nombre de succès est appelée hypergéométrique de
paramètres N, N1 et n si:
X(Ω) = {max(0, n − N2 ), . . . , min(n, N1 )},
La fonction de probabilité est donnée par :

M’hamed El-Louh (ENSAM) 11/03 17 / 50


Loi Hypergéométrique
Définition
Soit E un ensemble formé de N = (N1 + N2 ) éléments avec N1 éléments de
type S (succès) et N2 éléments de type S̄. On choisit au hasard, simultanément
ou successivement sans remise, n éléments dans l’ensemble E.La variable
aléatoire X qui compte le nombre de succès est appelée hypergéométrique de
paramètres N, N1 et n si:
X(Ω) = {max(0, n − N2 ), . . . , min(n, N1 )},
La fonction de probabilité est donnée par :

CkN1 Cn−k
N2
P(X = k) = , où k ∈ X(Ω),
CnN

On la note X ∼ H(N, N1 , n) avec n ≤ N.

M’hamed El-Louh (ENSAM) 11/03 17 / 50


Loi Hypergéométrique
Définition
Soit E un ensemble formé de N = (N1 + N2 ) éléments avec N1 éléments de
type S (succès) et N2 éléments de type S̄. On choisit au hasard, simultanément
ou successivement sans remise, n éléments dans l’ensemble E.La variable
aléatoire X qui compte le nombre de succès est appelée hypergéométrique de
paramètres N, N1 et n si:
X(Ω) = {max(0, n − N2 ), . . . , min(n, N1 )},
La fonction de probabilité est donnée par :

CkN1 Cn−k
N2
P(X = k) = , où k ∈ X(Ω),
CnN

On la note X ∼ H(N, N1 , n) avec n ≤ N.

Remarque
On trouve parfois la loi hypergéométrique exprimée en fonction du paramètre
p = NN1 et non du paramètre N1 .
M’hamed El-Louh (ENSAM) 11/03 17 / 50
Exemple
Dans l’exemple précédent, si on suppose que le tirage est sans remise. Alors
X ∼ H(N = 12, N1 = 5, n = 4)

M’hamed El-Louh (ENSAM) 11/03 18 / 50


Exemple
Dans l’exemple précédent, si on suppose que le tirage est sans remise. Alors
X ∼ H(N = 12, N1 = 5, n = 4)

Caractéristiques de la loi hypergéométrique


L’espérance mathématique de la loi hypergéométrique : E(X) = np. La
variance : V(X) = npq N−n
N−1 .

M’hamed El-Louh (ENSAM) 11/03 18 / 50


Exemple
Dans l’exemple précédent, si on suppose que le tirage est sans remise. Alors
X ∼ H(N = 12, N1 = 5, n = 4)

Caractéristiques de la loi hypergéométrique


L’espérance mathématique de la loi hypergéométrique : E(X) = np. La
variance : V(X) = npq N−n
N−1 .

Exemple
Un lac renferme une centaine de poissons dont un quart sont des brochets. On
pêche 10 poissons, soit le X nombre de brochets dans la prise. Donner la loi de
X et déterminer ses caractéristiques.

M’hamed El-Louh (ENSAM) 11/03 18 / 50


Loi Géométrique

Définition
Soit une épreuve de Bernoulli dont la probabilité de succès est p. On répète
cette épreuve de manière indépendante jusqu’au premier succès.
On appelle X la variable aléatoire modélisant le nombre d’essais nécessaires
pour obtenir le premier succès.

M’hamed El-Louh (ENSAM) 11/03 19 / 50


Loi Géométrique

Définition
Soit une épreuve de Bernoulli dont la probabilité de succès est p. On répète
cette épreuve de manière indépendante jusqu’au premier succès.
On appelle X la variable aléatoire modélisant le nombre d’essais nécessaires
pour obtenir le premier succès.
On dit que X suit une loi géométrique de paramètre p ∈]0, 1[,
notée X ∼ Geo(p),
X(Ω) = N∗ ,

M’hamed El-Louh (ENSAM) 11/03 19 / 50


Loi Géométrique

Définition
Soit une épreuve de Bernoulli dont la probabilité de succès est p. On répète
cette épreuve de manière indépendante jusqu’au premier succès.
On appelle X la variable aléatoire modélisant le nombre d’essais nécessaires
pour obtenir le premier succès.
On dit que X suit une loi géométrique de paramètre p ∈]0, 1[,
notée X ∼ Geo(p),
X(Ω) = N∗ ,
loi de probabilité est donnée par :

P(X = k) = p(1 − p)k−1 , k ≥ 1.

M’hamed El-Louh (ENSAM) 11/03 19 / 50


Loi Géométrique

Définition
Soit une épreuve de Bernoulli dont la probabilité de succès est p. On répète
cette épreuve de manière indépendante jusqu’au premier succès.
On appelle X la variable aléatoire modélisant le nombre d’essais nécessaires
pour obtenir le premier succès.
On dit que X suit une loi géométrique de paramètre p ∈]0, 1[,
notée X ∼ Geo(p),
X(Ω) = N∗ ,
loi de probabilité est donnée par :

P(X = k) = p(1 − p)k−1 , k ≥ 1.

Caractéristiques de la loi géométrique


L’espérance mathématique de la loi géométrique :E(X) = p1 .

M’hamed El-Louh (ENSAM) 11/03 19 / 50


Loi Géométrique

Définition
Soit une épreuve de Bernoulli dont la probabilité de succès est p. On répète
cette épreuve de manière indépendante jusqu’au premier succès.
On appelle X la variable aléatoire modélisant le nombre d’essais nécessaires
pour obtenir le premier succès.
On dit que X suit une loi géométrique de paramètre p ∈]0, 1[,
notée X ∼ Geo(p),
X(Ω) = N∗ ,
loi de probabilité est donnée par :

P(X = k) = p(1 − p)k−1 , k ≥ 1.

Caractéristiques de la loi géométrique


L’espérance mathématique de la loi géométrique :E(X) = p1 .
q
La variance : V(X) = p2 .

M’hamed El-Louh (ENSAM) 11/03 19 / 50


Preuve
Concernant la démonstrations de l’espérance mathématique et la variance de
la loi géométrique on va utiliser la formule de la somme géométrique suivante :


S= xn .
n=0

M’hamed El-Louh (ENSAM) 11/03 20 / 50


Preuve
Concernant la démonstrations de l’espérance mathématique et la variance de
la loi géométrique on va utiliser la formule de la somme géométrique suivante :


S= xn .
n=0

Convergence :
La série converge si et seulement si |x|< 1.

M’hamed El-Louh (ENSAM) 11/03 20 / 50


Preuve
Concernant la démonstrations de l’espérance mathématique et la variance de
la loi géométrique on va utiliser la formule de la somme géométrique suivante :


S= xn .
n=0

Convergence :
La série converge si et seulement si |x|< 1.
Dans ce cas, la somme est donnée par :
1
S= , pour |x|< 1.
1−x

M’hamed El-Louh (ENSAM) 11/03 20 / 50


Exercice
Une urne contient :
5 boules blanches,
4 boules rouges,
3 boules noires.
On tire successivement et avec remise une boule jusqu’à obtenir une boule
blanche. Soit X le nombre de tirages nécessaires pour obtenir une boule
blanche pour la première fois.
1 Justifier que X suit une loi géométrique et déterminer son paramètre.
2 Donner la loi de probabilité de X.
3 Calculer E(X) et Var(X).
4 Déterminer P(X ≤ 3).

M’hamed El-Louh (ENSAM) 11/03 21 / 50


Loi de Poisson

Définition
La loi de Poisson est la loi des événements rares où le futur ne dépend pas
du passé (pannes d’une machine, appels téléphoniques dans un standard,
...).

M’hamed El-Louh (ENSAM) 11/03 22 / 50


Loi de Poisson

Définition
La loi de Poisson est la loi des événements rares où le futur ne dépend pas
du passé (pannes d’une machine, appels téléphoniques dans un standard,
...).
La loi de Poisson décrit le comportement du nombre d’événements X qui
se produisent dans un intervalle de temps fixe t si ces événements se
produisent à une fréquence moyenne connue λ .
La probabilité de X, est donnée par :

M’hamed El-Louh (ENSAM) 11/03 22 / 50


Loi de Poisson

Définition
La loi de Poisson est la loi des événements rares où le futur ne dépend pas
du passé (pannes d’une machine, appels téléphoniques dans un standard,
...).
La loi de Poisson décrit le comportement du nombre d’événements X qui
se produisent dans un intervalle de temps fixe t si ces événements se
produisent à une fréquence moyenne connue λ .
La probabilité de X, est donnée par :
e−λ λk
P(X = k) = , k ∈ N,
k!
On note que X ∼ P(λ), ce qui signifie que X suit une loi de Poisson de
paramètre λ.

M’hamed El-Louh (ENSAM) 11/03 22 / 50


Caractéristiques de la loi de Poisson
L’espérance mathématique de la loi de Poisson : E(X) = λ.
La variance : V(X) = λ.

M’hamed El-Louh (ENSAM) 11/03 23 / 50


Caractéristiques de la loi de Poisson
L’espérance mathématique de la loi de Poisson : E(X) = λ.
La variance : V(X) = λ.

Preuve

∑ ∞

e−λ λk −λ λk
E(X) = k =e = e−λ λeλ = λ.
k! (k − 1)!
k=0 k=0

Pour la variance on calcule

M’hamed El-Louh (ENSAM) 11/03 23 / 50


Caractéristiques de la loi de Poisson
L’espérance mathématique de la loi de Poisson : E(X) = λ.
La variance : V(X) = λ.

Preuve

∑ ∞

e−λ λk −λ λk
E(X) = k =e = e−λ λeλ = λ.
k! (k − 1)!
k=0 k=0

Pour la variance on calcule



∑ ∑∞
e−λ λk λk
E(X2 ) = k2 = e−λ (k(k − 1) + k)
k! k!
k=0 k=0


∑ ∑ λk ∞ ∑ λk ∞
λk
= e−λ k(k − 1) + e−λ k = e−λ + λ = λ2 + λ.
k! k! (k − 2)!
k=0 k=0 k=0

Par conséquent

M’hamed El-Louh (ENSAM) 11/03 23 / 50


Caractéristiques de la loi de Poisson
L’espérance mathématique de la loi de Poisson : E(X) = λ.
La variance : V(X) = λ.

Preuve

∑ ∞

e−λ λk −λ λk
E(X) = k =e = e−λ λeλ = λ.
k! (k − 1)!
k=0 k=0

Pour la variance on calcule



∑ ∑∞
e−λ λk λk
E(X2 ) = k2 = e−λ (k(k − 1) + k)
k! k!
k=0 k=0


∑ ∑ λk ∞ ∑ λk ∞
λk
= e−λ k(k − 1) + e−λ k = e−λ + λ = λ2 + λ.
k! k! (k − 2)!
k=0 k=0 k=0

Par conséquent

Var(X) = E(X2 ) − (E(X))2 = λ2 + λ − λ2 = λ.

M’hamed El-Louh (ENSAM) 11/03 23 / 50


Exercice
Dans un hôpital parisien, il arrive en moyenne 1, 25 personnes à la minute aux
urgences entre 9 h et 12 h. Soit X la variable aléatoire dénombrant le nombre
de personnes observées à la minute à l’entrée de ce service. On admet que X
suit la loi de Poisson : X ∼ P(1, 25).

La probabilité pour qu’en 1 minute il arrive 2 personnes est :

M’hamed El-Louh (ENSAM) 11/03 24 / 50


Exercice
Dans un hôpital parisien, il arrive en moyenne 1, 25 personnes à la minute aux
urgences entre 9 h et 12 h. Soit X la variable aléatoire dénombrant le nombre
de personnes observées à la minute à l’entrée de ce service. On admet que X
suit la loi de Poisson : X ∼ P(1, 25).

La probabilité pour qu’en 1 minute il arrive 2 personnes est :

1, 252 e−1,25
P(X = 2) =
2!
La probabilité pour qu’en 1 minute il arrive 4 personnes au plus est :

M’hamed El-Louh (ENSAM) 11/03 24 / 50


Exercice
Dans un hôpital parisien, il arrive en moyenne 1, 25 personnes à la minute aux
urgences entre 9 h et 12 h. Soit X la variable aléatoire dénombrant le nombre
de personnes observées à la minute à l’entrée de ce service. On admet que X
suit la loi de Poisson : X ∼ P(1, 25).

La probabilité pour qu’en 1 minute il arrive 2 personnes est :

1, 252 e−1,25
P(X = 2) =
2!
La probabilité pour qu’en 1 minute il arrive 4 personnes au plus est :


4
1, 25k e−1,25
P(X ≤ 4) =
k!
k=0

La probabilité pour qu’en 1 minute il arrive 3 personnes au moins est :

P(X ≥ 3) = 1 − P(X ≤ 2)

M’hamed El-Louh (ENSAM) 11/03 24 / 50


Exemple
Soit X la variable aléatoire qui prend pour valeur le nombre de défauts sur un
verre d’une ampoule. On admet que X suit la loi de Poisson de paramètre
λ = 5.
Calculer la probabilité des événements suivants :
1 Il n’y a aucun défaut sur l’ampoule :

50
P(X = 0) = e−5 = e−5 = 0, 0067
0!
2 Le nombre de défauts est compris entre 2 et 4 :

P(2 ≤ X ≤ 4) = P(X = 2) + P(X = 3) + P(X = 4)

52 53 54
= e−5 + e−5 + e−5
2! 3! 4!
= 0, 39

M’hamed El-Louh (ENSAM) 11/03 25 / 50


Exemple
On admet que le nombre moyen d’appels téléphoniques reçus par un
standardiste est égal à 12 appels par heure. Soit X le nombre d’appels
reçus par le standardiste par heure.
Le nombre de clients entrant dans un magasin en une journée.
Nombre d’accidents pendant une période de durée T.

Exercice
Soit X une v.a.r telle que X(Ω) = N . et

2
∀n ∈ N∗ , P(X = n) = P(X = n − 1).
n
Déterminer la loi de X.

M’hamed El-Louh (ENSAM) 11/03 26 / 50


Approximation : Binomiale vers Poisson

Conditions:
Soit X ∼ B(n, p) telle que :

n ≥ 50,
p ≤ 0.1,
np ≤ 5.

Dans ces conditions, la loi binomiale peut être approximée par la loi de
Poisson :
Bin(n, p) ≈ P(λ = np).

M’hamed El-Louh (ENSAM) 11/03 27 / 50


Approximation : Binomiale vers Poisson

Conditions:
Soit X ∼ B(n, p) telle que :

n ≥ 50,
p ≤ 0.1,
np ≤ 5.

Dans ces conditions, la loi binomiale peut être approximée par la loi de
Poisson :
Bin(n, p) ≈ P(λ = np).

Exemple d’application :
Si n = 100 et p = 0.02, alors : λ = np = 100 × 0.02 = 2.
Approximation :
X ∼ P(λ = 2).

M’hamed El-Louh (ENSAM) 11/03 27 / 50


Exemple
La probabilité de gagner au tiercé est de 1/1000. Quelle est la probabilité de
gagner k fois en jouant 2000 fois?
Nous modélisons cette situation par une expérience binomiale de paramètre
n = 2000 et p = 1/1000. Puisque n > 50, p < 0.1 et λ = np = 2 ≤ 5, alors

2k
P(X = k) ≃ e−2 .
k!
Dans le tableaux suivant, on peut comparer quelques valeurs des deux lois:
k 0 1 2 3
B (2000; 1/1000), P(X = k) 0.13520 0, 27067 0, 27081 0, 18053
P(2), P(X = k) 0, 13534 0, 27067 0, 27067 0, 18045
k 4 5
B (2000; 1/1000), P(X = k) 0, 09022 0, 03605
P(2), P(X = k) 0, 09022 0, 03609

M’hamed El-Louh (ENSAM) 11/03 28 / 50


Approximation : Hypergéométrique vers Binomiale

Conditions
Soit X ∼ H(N, N1 , n), la loi hypergéométrique de paramètres N (taille
totale), N1 (nombre d’éléments favorables) et n (taille de l’échantillon).
Si le rapport N
n > 10, alors on peut approximer la loi hypergéométrique
par une loi binomiale :
( )
N1
H(N, N1 , n) ≈ B n, .
N

M’hamed El-Louh (ENSAM) 11/03 29 / 50


Lois discrètes usuelles

Nom Loi E(X) Var(X)


Bernoulli
P(X = 1) = p = 1 − P(X = 0) p p(1 − p)
B(p)
binomiale ( n)
∀0 ≤ k ≤ n, P(X = k) = pk (1 − p)n−k np np(1 − p)
B(n, p) k

Poisson n
∀n ∈ N, P(X = n) = exp(−λ) λn! λ λ
P(λ)
géométrique
∀n ∈ N∗ , P(X = n) = p(1 − p)n−1 1 1−p
G⌉≀(p) p p2

M’hamed El-Louh (ENSAM) 11/03 30 / 50


Couples de variables aléatoires discrètes

M’hamed El-Louh (ENSAM) 11/03 31 / 50


Situation
Imaginons un ingénieur concevant un drone. Lors d’un vol, il doit s’assurer
que :
Le niveau de batterie (X) est suffisant pour que le drone puisse poursuivre
sa mission.
Le signal GPS (Y est stable afin d’éviter une perte de contrôle.
L’objectif est d’étudier leur comportement conjoint : si la batterie est faible, le
signal GPS sera-t-il également instable ? Peut-on prévoir les pannes ?

M’hamed El-Louh (ENSAM) 11/03 32 / 50


Définition du vecteur aléatoire Z

Soient X et Y deux variables aléatoires définies sur un même espace


probabilisé (Ω, A, P).
On définit le vecteur aléatoire Z comme suit :
Définition
Z : Ω → R2 est une application donnée par :

Z(ω) = (X(ω), Y(ω)), ∀ω ∈ Ω.

Z associe à chaque ω ∈ Ω un couple (X(ω), Y(ω)) dans R2 .


Z(Ω) ⊆ R2 , l’ensemble des valeurs possibles de Z.
Les composantes du vecteur Z sont les variables aléatoires X et Y.
L’événement {Z = (x, y)} correspond à {X = x} ∩ {Y = y}.

M’hamed El-Louh (ENSAM) 11/03 33 / 50


Définition du vecteur aléatoire discret
Exemple
On lance simultanément deux dés, et on note X le plus grand des deux chiffres
obtenus et Y le plus petit.

Définition
La loi conjointe (ou loi mutuelle) de X et de Y est la loi du couple (X, Y) :
∀(x, y) ∈ X(Ω) × Y(Ω), ∑
P(X = x, Y = y) = P(X = x ∩ Y = y), Avec (x,y)∈Z(Ω) P(Z = (x, y)) = 1.

Valeurs de X | Y y1 y2 ··· ym
x1 P1,1 P1,2 ··· P1,m
x2 P2,1 P2,2 ··· P2,m
.. .. .. .. ..
. . . . .
xn Pn,1 Pn,2 ··· Pn,m
Table: Loi conjointe de X et Y.

M’hamed El-Louh (ENSAM) 11/03 34 / 50


lois marginales du couples (X, Y)
Définition
Les lois marginales du couples (X, Y) sont la loi de X et la loi de Y :

∀x ∈ X(Ω), P(X = x) = P(X = x, Y = y),
y∈Y(Ω)


∀y ∈ Y(Ω), P(Y = y) = P(X = x, Y = y).
x∈X(Ω)

Valeurs de X | Y y1 y2 ··· ym Marginale de X


x1 P1,1 P1,2 ··· P1,m P1,•
x2 P2,1 P2,2 ··· P2,m P2,•
.. .. .. .. .. ..
. . . . . .
xn Pn,1 Pn,2 ··· Pn,m Pn,•
Marginale de Y P•,1 P•,2 ··· P•,m
Table: Loi conjointe et marginales de X et Y.

M’hamed El-Louh (ENSAM) 11/03 35 / 50


Exemple
Une urne contient 4 boules : 2 blanches, 1 rouge et 1 noire. On tire
simultanément deux boules.
Soit X le nombre de boules blanches et Y le nombre de boules noires.
Le tableau suivant résume les probabilités associées à X et Y :

X=0 X=1 X=2


1 1
Y=0 0 3 6
1 1
Y=1 6 3 0
Les probabilités marginales sont calculées comme suit :
3 1 3 1
P(Y = 0) = = , P(Y = 1) = = .
6 2 6 2
La probabilités conjointes sont calculées comme suit :
1 1
P(Y = 0, X = 1) = , P(Y = 1, X = 0) = .
3 6

M’hamed El-Louh (ENSAM) 11/03 36 / 50


Loi conditionnelle de X sachant (Y = y)
Définition
Soit X et Y deux variables aléatoires sur un espace de probabilité (Ω, A, P).
Pour x ∈ X(Ω) tel que P(Y = y) > 0, la loi conditionnelle de X sachant
(Y = y) est définie par la probabilité conditionnelle suivante :

P(X = x; Y = y)
P(X = x | Y = y) = .
P(Y = y)

Propriétés de la loi conditionnelle


La loi conditionnelle est une probabilité :

PX=x (Y = y) = 1.
y∈Y(Ω)

La loi conjointe P(X = x, Y = y) peut être exprimée en fonction de la loi


conditionnelle et de la loi marginale de X :

P(X = x, Y = y) = PY=y (X = x) · P(Y = y).


M’hamed El-Louh (ENSAM) 11/03 37 / 50
Exemple
Lancer d’un dé équilibré à 4 faces deux fois: L1 résultat de première lancer et
L2 résultat de deuxième lancer. Avec X = max(L1 , L2 ) et Y = min(L1 , L2 ).
Déterminer la loi conjointe du couple (X, Y).

Solution
Loi conjointe du couple (X, Y)
{
1
16 , si x = y,
P(X = x, Y = y) = 1
8, si x > y.

M’hamed El-Louh (ENSAM) 11/03 38 / 50


Exemple
Y\X 1 2 3 4
1 1 1 1
1 16 8 8 8
1 1 1
2 0 16 8 8
1 1
3 0 0 16 8
1
4 0 0 0 16

La somme des probabilités est :


1 1
6× +4× = 1.
8 16
Donc, la loi conjointe est correcte.

M’hamed El-Louh (ENSAM) 11/03 39 / 50


Exemple
Donc la loi conditionnelle de X sachant (Y = 2), PY=2 (X = x):

X 1 2 3 4
1 2 2
PY=2 (X = x) 0 5 5 5

la loi conditionnelle de Y sachant (X = 4), PX=4 (Y = y):

Y 1 2 3 4
2 2 2 1
PX=4 (Y = y) 7 7 7 7

M’hamed El-Louh (ENSAM) 11/03 40 / 50


Notion d’indépendances

Définition
X et Y sont dites indépendantes si et seulement si
∀(x, y) ∈ X(Ω) × Y(Ω), on a

P(X = x, Y = y) = P(X = x) · P(Y = y),

Autrement dit, pour tout y tel que P(Y = y) > 0; la loi conditionnelle de X
sachant (Y = y) coincide avec la loi de X.

P(X = x/Y = y) = P(X = x),

M’hamed El-Louh (ENSAM) 11/03 41 / 50


Exemple illustratif
Soient E = {1, 2} et F = {a, b}.
La probabilité conjointe de X et Y est donnée par le tableau :

X\Y a b P(X = x)
1 0.2 0.3 0.5
2 0.1 0.4 0.5
P(Y = y) 0.3 0.7 1.0

Probabilités marginales :

P(X = 1) = 0.2 + 0.3 = 0.5, P(X = 2) = 0.1 + 0.4 = 0.5.

P(Y = a) = 0.2 + 0.1 = 0.3, P(Y = b) = 0.3 + 0.4 = 0.7.


Vérification de l’indépendance :

P(X = 1, Y = a) = 0.2, P(X = 1) · P(Y = a) = 0.5 · 0.3 = 0.15.

Conclusion : X et Y ne sont pas indépendantes car 0.2 ̸= 0.15.

M’hamed El-Louh (ENSAM) 11/03 42 / 50


La covariance de deux variables aléatoires

Définition de la covariance
La covariance de deux variables aléatoires X et Y de carré intégrable, notée
Cov(X, Y), est donnée par :

Cov(X, Y) = E((X − E(X))(Y − E(Y))).

Formule équivalente
Une formule équivalente pour la covariance est :

Cov(X, Y) = E(XY) − E(X)E(Y).

M’hamed El-Louh (ENSAM) 11/03 43 / 50


Propriétés de la covariance
La covariance est une forme bilinéaire symétrique :

Cov(X, Y) = Cov(Y, X).

Pour tous réels a, b, c et d, on a :


Cov(aX + b, cY + d) = acCov(X, Y).
Cov(X, X) = V(X).
V(X + Y) = V(X) + V(Y) + 2Cov(X, Y) .
La covariance est une mesure incomplète de l’indépendance de deux
variables X et Y.

M’hamed El-Louh (ENSAM) 11/03 44 / 50


Propriétés de la covariance
La covariance est une forme bilinéaire symétrique :

Cov(X, Y) = Cov(Y, X).

Pour tous réels a, b, c et d, on a :


Cov(aX + b, cY + d) = acCov(X, Y).
Cov(X, X) = V(X).
V(X + Y) = V(X) + V(Y) + 2Cov(X, Y) .
La covariance est une mesure incomplète de l’indépendance de deux
variables X et Y.
Si X et Y sont indépendantes, alors :

Cov(X, Y) = 0.

Si Cov(X, Y) ̸= 0 alors X et Y ne sont pas indépendantes en probabilité.

M’hamed El-Louh (ENSAM) 11/03 44 / 50


Définintion
Le coefficient de corrélation linéaire est défini pour des variables aléatoires non
constantes par :

Cov(X, Y)
ρ(X, Y) = √
Var(X) Var(Y)

Propriété

−1 ≤ ρ(X, Y) ≤ 1.
Plus |ρ(X, Y)| est proche de 1 plus la dépendance entre X et Y est forte.

M’hamed El-Louh (ENSAM) 11/03 45 / 50


Somme de deux variables aléatoires indépendantes

Définition
Soient X et Y deux variables aléatoires discrètes indépendantes. La somme
Z = X + Y est une variable aléatoire dont la loi est donnée par :

P(Z = k) = P(X = i) · P(Y = k − i), ∀k ∈ Z.
i

Propriété
Soient X et Y deux variables aléatoires discrètes. Alors
Si X et Y sont indépendantes, alors :

E[Z] = E[X] + E[Y], Var(Z) = Var(X + Y) = Var(X) + Var(Y).

M’hamed El-Louh (ENSAM) 11/03 46 / 50


Exemple 1 : Somme de deux lois uniformes
Exemple : Soient X et Y deux variables aléatoires discrètes indépendantes
suivant une loi uniforme sur {1, 2, 3}. La somme Z = X + Y a pour loi :

P(Z = k) = P(X = i) · P(Y = k − i), ∀k ∈ Z.
i

Calcul :
P(Z = 2) = P(X = 1, Y = 1) = 19 .
P(Z = 3) = 29 , car (X, Y) ∈ {(1, 2), (2, 1)}.
P(Z = 4) = 39 , car (X, Y) ∈ {(1, 3), (2, 2), (3, 1)}.

M’hamed El-Louh (ENSAM) 11/03 47 / 50


Exemple 1 : Somme de deux lois uniformes
Exemple : Soient X et Y deux variables aléatoires discrètes indépendantes
suivant une loi uniforme sur {1, 2, 3}. La somme Z = X + Y a pour loi :

P(Z = k) = P(X = i) · P(Y = k − i), ∀k ∈ Z.
i

Calcul :
P(Z = 2) = P(X = 1, Y = 1) = 19 .
P(Z = 3) = 29 , car (X, Y) ∈ {(1, 2), (2, 1)}.
P(Z = 4) = 39 , car (X, Y) ∈ {(1, 3), (2, 2), (3, 1)}.
Loi de Z:
k 2 3 4 5 6
1 2 3 2 1
P(Z = k) 9 9 9 9 9

M’hamed El-Louh (ENSAM) 11/03 47 / 50


Exemple 2 : Loi de Poisson
Soient X ∼ P(λ) et Y ∼ P(µ), deux variables aléatoires indépendantes. La
somme Z = X + Y suit une loi de Poisson de paramètre λ + µ.

M’hamed El-Louh (ENSAM) 11/03 48 / 50


Exercice
Soit un couple de variables aléatoires (X, Y) tel que :

X(Ω) = {−2, 0, 1}, Y(Ω) = {−1, 1, 2}.

La loi conjointe de (X, Y) est donnée par le tableau suivant :

P(X = x, Y = y) Y = −1 Y=1 Y=2


X = −2 0.2 0.2 α
X=0 0.1 0.1 0.05
X=1 0.2 0 0.1
1 Trouver la valeur de α. Calculer les lois marginales de X et Y.
2 Montrer que X et Y ne sont pas indépendantes.
3 Calculer la loi conditionnelle de X sachant Y = 1 et en déduire
E[X | Y = 1].
4 Calculer E[X | Y ̸= 2]. Calculer E[XY] et Cov(X, Y). Calculer la loi de
Z = X + Y, puis E[Z] et Var(Z).

M’hamed El-Louh (ENSAM) 11/03 49 / 50


Exercice
On tire simultanément deux boules dans une urne contenant : 4 boules
blanches, deux boules vertes et une boule noire. Soit X la variable aléatoire
correspondant au nombre de boules blanches tirées.
1 Déterminer la loi de X (valeurs possibles de X et leurs probabilités).
2 En déduire l’espérance E(X) et la variance V(X).
3 Calculer P(X ≤ 1) .
4 Calculer P(X ≥ 1) .
5 On défini une nouvelle variable aléatoire Y telle que Y = 1 − X :
5.1 Déterminer la loi de Y (valeurs possibles et probabilités associées).
5.2 Calculer l’espérance E(Y), la variance V(Y), et l’écart-type σ(Y).

M’hamed El-Louh (ENSAM) 11/03 50 / 50

Vous aimerez peut-être aussi