Variable aléatoire discrète
Exemples des variables aléatoires discrètes :
École Supérieure d’Informatique, SBA
2ième année CP
30 Novembre / 07 Décembre 2017
Benchikh Tawfik Probabilité
Plan de cours
1 Variables certaine- Loi uniforme
2 Les Lois du tirage avec remise
Loi de Bernoulli
Loi Binomiale
Loi multinomiale
Temps d’attente: Loi géométrique
Temps d’attente: Loi de Pascal
Nombre d’échecs: Loi Binomiale négative
3 Lois du tirage sans remise
Loi hypergéométrique
Temps d’attente dans le tirage sans remise
4 Loi de Poisson
5 Approximation des lois Binômiales
6 Exercices
Benchikh Tawfik Probabilité
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise
Loi de Poisson
Approximation des lois Binômiales
Exercices
Variables certaine
On appelle variable certain une v.a.r. constante:
∃a ∈ R/X(Ω) = {a}.
Par conséquent: Pr(X = a) = 1, IE(X) = a, V(X) = 0.
Soit X une v.a.r. tel que V(X) = 0. Alors X est une
variable certaine, ou quasi-certaine (i.e., si X prend
plusieurs valeurs, elle prend l’une d’elle avec la
probabilité 1 et les autres avec la probabilité nulle).
Benchikh Tawfik Probabilité
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise
Loi de Poisson
Approximation des lois Binômiales
Exercices
Loi uniforme: Définition
On dit qu’une v.a.r. suit une loi uniforme discrète sur [1, n], si
l’on a: X(Ω) = [1, n] et ∀k ∈ [1, n]: Pr(X = k) = 1n .
On écrit X Un .
Benchikh Tawfik Probabilité
Loi uniforme: Calcule des paramètres:
n n n
X X 1 1X 1 n(n + 1)
IE(X) = k Pr(X = k) = k = k= =
k=1 k=1
n n k=1 n 2
n+1
.
2
n n n
21 1X 2
X X
2 2
IE(X ) = k Pr(X = k) = k = k
k=1 k=1
n n k=1
1 n(n+1)(2n+1) (n+1)(2n+1)
= n 6
= 6
.
2
2
V(X) = IE(X ) − (IE(X))2 = n 12−1 .
Loi uniforme: Domaine d’utilisation
La loi de probabilité uniforme intervient dans de
nombreux domaines comme:
les jeux de pile ou face ou les jeux de dés (avec une pièce ou
un dé parfaitement équilibré(e)),
les jeux de cartes, les loteries, les sondages, ect.
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative
Loi de Bernoulli: Définition
On dit qu’une v.a.r. est une variable de Bernoulli si elle ne
prend que les 2 valeurs 0 et 1 non nulles.
Notation: On note loi de X:
Pr(X = 1) = p ; Pr(X = 0) = q = 1 − p , p ∈]0, 1[
et on écrit: X B(1, p).
Benchikh Tawfik Probabilité
Loi de Bernoulli: le modèle
Le modèle probabiliste est donné par le lancer d’une
pièce où la probabilité d’amener "pile" est p ∈]0, 1[,
pile=succés.
Une v.a. de Bernoulli illustre plus généralement tout
expérence aléaoire n’ayant que 2 issues possibles et
effectue 1 fois.
Loi de Bernoulli: Les paramètres
IE(X) = 0 × q + 1 × p = p.
V(X) = (0 − p)2 × (1 − p) + (1 − p)2 × p = p × q.
Loi de Bernoulli: Exemple
Soit A un événement d’un espace de probabilité
(Ω, A, Pr).
On appelle v.a.r. indicatrice de l’événement A,
l’application:
ΦA = 11A : Ω −→ R ,
définie par: ∀ω ∈ A; ΦA (ω) = 1 et ∀ω ∈ A; ΦA (ω) = 0.
ΦA est une varaible de Bernoulli (sauf si A est
quasi-impossible ou quasi-certain) et on a: (ΦA = 1) = A
d’ou IE(ΦA ) = Pr(A).
Loi de Bernoulli: Exercice
Soit k ∈ N, calculer le moment et le moment centré
d’ordre k d’une v.a.r. de Bernoulli.
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative
Loi Binomiale: le modèle
On considère une urne contenant 2 catégories de
boules, des boules blanches en proportion p et des
boules non blanches en proportion q = 1 − p.
Soit l’expérience aléatoire qui consiste à tirer n boules
avec remise de cette urne.
On appelle X le nombre aléatoire de nombre de boules
blanches obtenus au cours de ce tirage de n boules.
Ce modèle servira plus généralement lorsque l’on
s’interessera au nombre de succés obtenus lors d’une
succession de n essais indépendants, le succés avec
probabilité p et l’échec avec q = 1 − p.
On voit que X(Ω) = [0, n].
Benchikh Tawfik Probabilité
Loi Binomiale: Définition
On dit qu’une v.a.r. X suit une loi Binomiale de paramètre n
et p si l’on a:
X(Ω) = [0, n], et
∀k ∈ [0, n]: Pr(X = k) = Cnk pk (1 − p)n−k .
On écrit: X B(n, p).
Vérifiant qu’il s’agit d’une loi de probabilité:
n
X n
X
Pr(X = k) = Cnk pk (1 − p)n−k = (p + q)n = 1 .
k=0 k=0
Loi Binomiale: ramarques
Une v.a.r. de Bernoulli est une variable Binomiale
B(1, p).
Toute variable Binomiale X B(n, p) est la somme de n
variables de Bernoulli indépendantes
X1 , . . . , Xn B(1, p):
n
X
X= Xi ; Xi B(1, p) .
i=1
Loi Binomiale: caractéristiques
Soit X B(n, p), alors:
IE(X) = n × p. (Utiliser le lemme suivant: soit k ∈ N∗ et n ∈ N,
k−1
tel que: k ≤ n. On a: kCnk = nCn−1 ).
Pn
V(X) = n × p × q (utiliser V(X) = IE(X 2 ) − IE(X)2 où Var( i=1 X)
où Xi B(1, p) indépendantes).
Loi Binomiale: Exemple 1
On jette 6 fois une pièce de monnaie bien équilibrée, on
suppose que face est un succès. On a donc: p = 12 ,
n = 6.
a) IPr(on ait exactement 2 faces) = IPr(X = 2) = C62 ( 12 )2 ( 21 )4 = 15
64 .
b) IPr(d’avoir au moins 4 faces) =
IPr(X ≥ 4) = IPr(X = 4) + IPr(X = 5) + IPr(X = 6)
= C64 ( 21 )4 ( 12 )2 + C65 ( 12 )5 ( 21 )1 + C66 ( 12 )6 .
15 6 1 11
= 64 + 64 + 64 = 32
Loi Binomiale: Exemple 2
Un examen consiste à répondre à 4 questions à coté
des quelles on trouve cinq réponses possibles: parmi
les réponses, une seule est correcte. Pour réussir
l’examen, il faut répondre correctement à trois questions
au moins. Quelle est la probabilité pour qu’un étudiant
n’ayant pas préparé son examen réussisse?
Loi Binomiale: Exemple 2
Si l’étudiant n’a pas préparé son examen, il devra choisir
les réponses "au hasard", c’est-à-dire que toutes les
réponses ont la même probabilité d’être choisir, en
particulier la réponse correcte, il s’en suit que p = 15 pour
cet étudiant là.
Pour chaque étudiant l’examen peut être assimilé à loi
de Bernoulli où le succès est la réponse juste.
X B(n, p) = B(4, 15 ). (X: nombre des réponses juste).
L’événement "réussir l’examen" peut être décrit par:
"(X = 3) ou (X = 4)"="(X ≥ 3)", et IPr(X ≥ 3) = 0.0272.
Loi Binomiale: Exemple 3
On veut réaliser une étude clinique sur des malades se
présentant à une consultation hospitalière. Pour cette
étude, seuls les malades répondant à un ensemble de
critères C sont retenus. Des statistiques antérieures ont
montré que 20% des consultants présentent les critères
C. 10 malades viennent consulter le premier jour.
Soit X la variable aléatoire "nombre de malades
retenus", c’est-à-dire répondant à l’ensemble des
critères C.
La variable X suit la loi binomiale B(10, 0.2).
Loi Binomiale: Exemple 3
La probabilité qu’aucun malade ne soit recruté ce jour
est égale à:
0
Pr(X = 0) = C10 (0.2)0 (0, 80)1 0 = 0, 107 .
La probabilité pour qu’il y ait au moins un malade
recruté est égale à :
Pr(X ≥ 1) = 1 − Pr(X ≤ 0) = 1 − 0.107 = 0.803 .
Loi Binomiale: Exercice
Quelle est la probabilité de trouver x = 0, 1, 2 ou 3 filles
dans des familles de n = 3 enfants.
Loi Binomiale: Stabilité de la loi binomiale
Soit X et Y deux variables indépendentes suivant des
lois binomiales respectivement X B(n, p) et
Y B(m, p).
Alors X + Y B(n + m, p).
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative
Le modèle:
La loi multinomiale est une généralisation de la loi
binomiale.
Une population P est composée d’individus appartenant
à k types différents, dans des proportions p1 , p2 , . . ., pk
telles que
k
X
pi = 1 .
i=1
On tire un échantillon de n individus, de façon
équiprobable et indépendante et on s’intéresse à la
composition de l’échantillon.
Benchikh Tawfik Probabilité
Loi multinomiale: Définition
Soit Xi la variable aléatoire représentant le nombre
d’individus de type i dans l’échantillon et soit
→
−
X = (X1 , . . . , Xk ) un vecteur aléatoire réelle.
Alors
On dit que X suit loi multinomiale de paramètres
(n; p1 , . . . , pk ) si:
→
−
1. X (Ω) ∈ Nk , et
2. Pr [X = (x1 , x2 , . . . , xk )] = n! x1 x2
x1 !x2 !...xk ! p1 p2 . . . pxkk .
→
−
Nous écrivons X M(n; p1 , . . . , pk ).
Vérification qu’il s’agit d’une loi de probabilité:
X X n!
Pr [X = (x1 , x2 , . . . , xk )] = px1 px2 . . . pxkk = 1 .
x1 !x2 ! . . . xk ! 1 2
Explication:
En effet
Pr(X = (x1 , x2 , . . . , xk ))
xk
x2
= Cnx1 Cn−x1
. . . Cn−(x px1 px22 . . . pxkk
1 +x2 +...+xk−1 ) 1
= n!
px1 px2
x1 !x2 !...xk ! 1 2
. . . pxkk .
où
k
X k
X
pi = 1 , xi = n .
i=1 i=1
Le coefficient x1 !x2n!!...xk ! est le nombre de partitions d’un
échantillon de taille n en sous-populations d’effectifs xi
(combinaison avec répétition).
Loi multinomiale: propriété
La loi marginale de Xi est une loi binomiale B(n, pi ).
En effet, un élément tiré est:
soit du type i avec la probabilité pi ,
soit de n’importe quel autre type avec la probabilité (1 − pi ).
Le nombre d’individus du type i dans l’échantillon suit
donc la loi binomiale B(n, pi ).
D’où: IE(Xi ) = npi et Var(Xi ) = npi (1 − pi ).
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative
Loi géométrique: le modèle
Reprenons l’urne précédente et supposons toujours
qu’elle contienne une proportion p de boules blanche et
la proportion q = 1 − p de boules noires, avec p ∈]0, 1[.
On tire alors successivement des boules une à une en
remettant à chaque fois la boule tirée
er
On note X le rang de l’apparition de la 1 boule blanche.
er
On dit que X est le temps d’attente de la 1 boule
blanche.
Ce modèle servira également lorsque l’on s’interesse au
er
temps d’attente du 1 succés lors d’une succession
d’expérences aléatoire indépendantes n’ayant que 2
issues, le succés et l’échec avec probabilité p et q.
Benchikh Tawfik er Probabilité er
∗
Loi géométrique: définition
Définition
On dit qu’une v.a.r. X suit une loi géométrique de paramètre
p si on a:
X(Ω) = N∗ , et
∀k ∈ N∗ : Pr(X = k) = pqk−1 .
Notation: Nous écrivons X G(p).
Loi géométrique: Explication
L’événement (X = k) est l’intersection des 2 événements
suivants:
A: "les (k − 1) premiers essais sons tous des échecs".
ième
B: "le k essais est un succésé.
Or les essais sont indépendants (q), on en déduit:
Pr(X = k) = Pr(A ∩ B) = Pr(A) × Pr(B) = qk−1 × p .
Vérification qu’il s’agit d’une loi de probabilité:
∞
X ∞
X ∞
X
Pr(X = k) = pqk−1 = p qk−1 ,
k=1 k=1 k=1
série géométrique de raison q, et comme 0 < q < 1,
1
cette série est convergente de somme: 1−q = 1p , on a
P∞ p
donc: k=1 Pr(X = k) = p = 1.
Loi géométrique: Espérance et la variance
Soit X G(p). Alors (comme exercice), on a
IE(X) = 1p .
Var(X) = pq2 .
Loi géométrique: remarque
Soit X G(p) et considérons la v.a.r. Y définie par:
Y = X − 1.
Il est clair que Y représente le nombre d’échecs avant le
ième
1 succés.
On a Y(Ω) = N, et
∀k ∈ N, Pr(Y = k) = pqk = Pr(X = k + 1).
De même: IE(Y) = IE(X) − 1 = qp et Var(Y) = Var(X) = q
p2 .
Loi géométrique: Exemple
Un certain matériel a une probabilité p = 0, 02 constante
de défaillance à chaque mise en service. On procède à
l’expérience suivante, l’appareil est mis en marche,
arrêté, remis en marche, arrêté, jusqu’à ce qu’il tombe
en panne. Le nombre d’essais nécessaires pour obtenir
la panne est une variable aléatoire suivant la loi
géométrique de paramètre p.
La probabilité que ce matériel tombe en panne (pour la
première fois) au dixième essai est égale à:
Pr(Y = 10) = (0, 02)(1 − 0, 02)9 = 0, 0167 .
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative
Loi de Pascal: le modèle
Reprenons encore l’urne précédente. Soit r un entier >0.
On tire alors des boules une à une en remettant à
chaque fois la boule tirée.
ième
On note Xr le rang de l’apparition de la r boule
ième
blanche, et on dit que Xr est le temps d’attente de r
boule blanche.
Notons que X1 suit une loi géométrique.
Ce modèle servira également lorsque l’on s’interesse au
ième
temps d’attente du r succés et l’échecs avec les
probabilité p et 1 − p.
ième
On a dans ce cas Xr (Ω) = [r, +∞[, car le r succés ne
ième
Benchikh Tawfik Probabilité
Loi de Pascal: Définition
Définition:
On dit qu’une v.a.r. suit une loi de Pascal de paramètres r et
p si l’on a:
X(Ω) = [r, +∞[, et
r−1 r k−r
∀k ∈ [r, +∞[, Pr(X = k) = Ck−1 pq .
Notation: Nous écrivons X P(r, p).
Loi de Pascal: Explication:
r−1 r k−r
Pr(Xr = k) = Ck−1 pq .
En effet: l’événement (Xr = k) est l’intersection de A et B
suivants:
A: "Au cours des (k − 1)" premiers essais on a eu (r − 1)
succés.
èime
B: "le k essai est un succés".
Puisque A q B ⇒ Pr(Xr = k) = Pr(A) × Pr(B).
r−1 r−1 (k−1)−(r−1)
Or, par hypothèse, Pr(B) = p et Pr(A) = Ck−1 p q
car il s’agit de la probabilité d’obtenir (r − 1) en (k − 1) essais
indépendants de même probabilité p.
Nous sommes donc alors en présence d’un phénomène
binomial.
r−1 r k−r
On a par conséquent: Pr(Xr = k) = Ck−1 pq .
Loi de Pascal: Explication:
Nous pouvons vérifier que la loi de Xr est bien une loi de
probabilité.
En effet:
∞
X ∞
X
r−1 r k−r
Pr(Xr = k) = Ck−1 pq .
k=r k=r
Changement d’indice k − 1 = h et pr en facteur, ce qui
donne:
∞ ∞
X X pr
Pr(Xr = k) = pr Chr−1 qh−r−1 = = 1.
k=r h=r−1
(1 − q)r
(on utilise le résultat suivant: ∀q ∈ [0, 1[; ∀r ∈ N∗ ,
∞
X 1
Ckr−1 qk−r−1 = .)
k=r−1
(1 − q)r
Loi de Pascal: paramètres
Soit X P(r, p),
r r×q
IE(X) = p
et V(X) = p2
.
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative
Loi Binomiale négative: le modèle
Considérons une successions indéfinie d’essais
indépendantes d’une épreuve à 2 issues et appelons Yr
ième
le nombre d’échecs précedent r succés.
Il est clair que Yr est lié à Xr (loi de Pascal) par la formule
Yr = Xr − r (il y a r succés). Alors Yr se déduit de Xr .
Benchikh Tawfik Probabilité
Loi Binomiale négative: définition et caractéristiques
Définition
Soit X une v.a.r. On dit que X suit loi binomiale négative de
paramètres r et p, si X + r suit une loi de Pascal de
paramètres r et p.
Notation: Nous écrivons X I(r, p).
Si X I(r, p) où BN (r, p). On a:
r−1
X(Ω) = N et ∀k ∈ N, Pr(X = k) = Ck+r−1 pr qk = Ck+r−1
k
pr qk .
r rq
IE(X) = p − r = p .
V(X) = r.q
p2 .
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise Loi hypergéométrique
Loi de Poisson Temps d’attente dans le tirage sans remise
Approximation des lois Binômiales
Exercices
Le modèle
On considère l’urne précedente avec Np boules
blanches et Nq boules noires, on tire n boules de cette
urne, sans remise,
on appelle X la variable aléatoire réelle égale au nombre
des boules blanche obtenus.
On a dans ce cas X(Ω) ∈ [0, n] et plus précésiment:
X(Ω) = [max(0, n − Nq ), min(n, n − Np )] .
où Np est le nombre des boules blanche et Nq est le
nombre des boules non blanche.
Benchikh Tawfik Probabilité
Loi hypergéométrique: définition
Soit X une variable aléatoire réelle. Alors on dit que:
X suit une loi hypergéométrique de paramètre N, n et p si:
X(Ω) ⊂ [0, n] , et
CNn p CNn−k
Pr(X = k) = CNn
q
, où N = Np + Nq .
Nous écrivons X H(N, n, p).
Loi hypergéométrique: Explication:
Rappelons tout d’abord que le cœfficient Cnp est nul si
p < 0 ou si p > n.
Ainsi Pr(X = k) est nul si k excède Np ou si n − Nq
excède k. c’est pour cela que la connaissance de X(Ω)
n’est pas fondamentale.
Le tirage s’effectue sans remise, on peut appeler
résultat du tirage toute partie à n éléments d’un
ensemble qui en possède N.
Tout ces résultats sont équiprobable et sont au nombre
de CNn .
Loi hypergéométrique: Explication:
Pour calculer Pr(X = k) il suffit donc de dénombrer les
résultats favorables, i.e.: ceux amenant exactement k
boules blanche.
Un résultat favorable s’obtient en choisissant k boules
blanche parmi Np ce qui peut se faire de CNk p façons, puis
dans chacun de ces cas il existe CNn−kq
façons de choisir
les (n − k) boules non blanche pour complèter le tirage.
Le nombre de ces cas favorable est ainsi CNk p CNn−k
q
.
Loi hypergéométrique: Explication:
On a: n
X
n
CNk p CNn−k
q
X k=0
Pr(X = k) = = 1.
k=0
CNn
n
X
car CNk p CNn−k
q
= CNn (identité de Vandermonde
k=0
Np + Nq = N).
Pour l’espérance et la variance on a:
IE(X) = n.p et V(X) = n.p.q N−n
N−1
.
rappel: k(k − 1)CNk p = Np (Np − 1)CNk−2
p −2
.
Remarque
Que les tirages soient effectués avec au sans remise,
l’éxpérience du nombre de boules blanche est la même.
C’est à dire que la loi hypergéométrique ne dépend pas
de N.
Par contre la variance a changé. On trouve n ∗ p ∗ q
N−n
multiplié par le cœfficient N−1 . Ce cœfficient porte le
nom de cœfficient d’exhaustivité. Il vaut 1 si n = 1 et on
a: N−n
N−1
≤ 1. C’est à dire qu’une variable aléatoire réelle
hypergéométrique est moins dispersée que la variable
aléatoire réelle binomiale.
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise Loi hypergéométrique
Loi de Poisson Temps d’attente dans le tirage sans remise
Approximation des lois Binômiales
Exercices
ième
On s’interrese au rang de l’apparition de la r boule
blanche.
Etudiant le cas où r = 1.
Benchikh Tawfik Probabilité
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise Loi hypergéométrique
Loi de Poisson Temps d’attente dans le tirage sans remise
Approximation des lois Binômiales
Exercices
er
Rang d’apparition de la 1 boule blanche
0 er
Soit X1 le rang d’apparition de la 1 boule blanche.
0
Il est clair que X1 = [1, Nq + 1].
0
Soit k ∈ [1, Nq + 1]. L’événement X1 = k est l’intersection
des événements A1 et B1 suivant:
A1 : "Les (k − 1) premières sont noires".
ième
B1 : "la k boule est blanche".
Benchikh Tawfik Probabilité
Ck−1
On a: Pr(A1 ) = CNk−1
q
(loi hypergéométrique: on veut
N
(k − 1) boules noires et 0 boules blanche dans un tirage
exhaustif de (k − 1) boules).
Np
Pr(B1 /A1 ) = N−k+1 ,
il vient alors:
0
Pr(X1 = k) = Pr(A1 ∩ B1 ) = Pr(A1 )IPr(B1 /A1 )
CNk−1
q Np
= CNk−1 N−k+1
k−1
Np CNq
= k CNn
,
i.e.
k−1
0 Np CNq
∀k ∈ [1, Nq + 1] Pr(X1 = k) = .
k CNk
0 N+1 0 N 2 (N+1)pq
IE(X1 ) = Np +1
et V(X1 ) = (Np +1)2 (Np +2)
.
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise Loi hypergéométrique
Loi de Poisson Temps d’attente dans le tirage sans remise
Approximation des lois Binômiales
Exercices
ième
Rang d’apparition de la r boule blanche
0 ième
Soit Xr le rang d’apparition de la r boule blanche
(r ≤ Np ).
0
On a de même X1 = [r, Nq + r].
0
L’événement Xr = k est l’intersection des événements Ar
et Br suivant:
Ar : " (r − 1) boules blanches au cours des (k − 1) tirages".
ième
B1 : "la r boule est blanche".
Benchikh Tawfik Probabilité
Cr−1 Ck−r
On a: Pr(Ar ) = NCp k−1Nq (loi hypergéométrique: on veut
N
(r − 1) boules blanches et (k − r) boules noires dans un
tirage exhaustif de (k − 1) boules).
p −r+1
Pr(Br /Ar ) = NN−k+1 ,
il vient alors:
0
Pr(Xr = k) = Pr(Ar ∩ Br ) = Pr(Ar )IPr(Br /Ar )
CNr−1
p
CNk−r
q Np −r+1
= CNk−1 N−k+1
C r Ck−r
r Np Nq
= k CNk
,
i.e.
r k−r
0 r CNp CNq
∀k ∈ [r, Nq + r] Pr(Xr = k) = .
k CNk
0 0
IE(Xr ) =? et V(Xr ) =?.
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise
Loi de Poisson
Approximation des lois Binômiales
Exercices
Exemple
La loi discrète (très importante) s’interesse souvent aux:
nombre de véhicules franchissant un poste de péage pendant
une période T,
nombre d’appels reçus par un standar téléphonique pendant
une période T,
nombre de défaut dont est affecté un objet qui est fabriqué eb
série etc ...
Benchikh Tawfik Probabilité
Loi de Poisson: Définition
Définition:
On dit qu’une variable aléatoire discète X suit une loi de
Poisson de paramètre λ > 0 si les deux conditions suivantes
sont réalisées:
X(Ω) = N,
k
∀k ∈ N, Pr(X = k) = e−λ λk! .
Nous écrivons X P(λ).
On vérifie aisément:
+∞ +∞
X X λk
Pr(X = k) = e−λ = e−λ eλ = 1 .
k=0 k=0
k!
Loi de Poisson: remarque
X est la variable aléatoire représentant le nombre
d’apparitions indépendantes d’un événement faiblement
probable (événement rare observé pendant une
période) dans une population infinie (varie entre 0 et
∞).
Si deux variables aléatoires indépendants X1 et X2 sont
distribuées selon des lois de Poisson de paramètres λ1
et λ2 , alors la variable X1 + X2 est distribuée selon une loi
de Poisson de paramètre λ1 + λ2 .
Loi de Poisson: Espérance et variance
Si X P(λ), alors IE(X) = λ et V(X) = λ.
La série est convergente (critère d’Alembert).
+∞ +∞
X X λk
IE(X) = k Pr(X = k) = ke−λ
k=0 k=0
k!
+∞
X λk
= e−λ
k=0
(k − 1)!
+∞
X λk−1
= λe−λ = λ.
k=1
(k − 1)!
+∞
X λk−2
De même: IE(X(X − 1)) = λ2 e−λ = λ2 .
k=2
(k − 2)!
D’où: V(X) = λ2 + λ − λ2 = λ.
Remarque
Si on connaît la probabilité de n’observé aucune
événement, c’est-à-dire IPr(X = 0) = p, alors, d’après la
0
formule du loi on a: p = IPr(X = 0) = e−λ λ0! = e−λ .
On en déduit: λ = − ln(p) et:
1
IPr(X = 1) = e−λ λ1! = pλ
2
IPr(X = 2) = e−λ λ2! = IPr(X = 1) λ2
.. .. ..
. . .
k
IPr(X = k) = e−λ λk! = IPr(X = k − 1) λk
On peut ainsi calculer facilement de proche en proche
les probabilité des diverses valeurs de k.
Approximation de la loi Binômiale par une loi de
Poisson
Si X B(n, p),
Si p est petit (en pratique p < 0.1), n assez grand
(supérieur à 50), et 0 ≤ n × p ≤ 10
Alors, la loi Binômiale peut être approximée par Y, une
loi de Poisson de paramètre λ = n × p
IPr([X = k]) = IPr([Y = k])
La probabilité IPr([Y > n]) est faible, mais non nulle.
Les calcule sont plus simple avec la loi de Poisson
qu’avec la loi Binômiale.
Lien avec la loi Binômiale
Par exemple, sur un échantillon de grand taille, on
étudie le nombre de fois que se produit un événement
"rare", c’est-à-dire approximation de la loi Binômiale
B(n, p) lorsque n est grand et p faible (ou 1 − p faible) de
façons que λ = n ∗ p soit l’ordre de l’unité.
Cela se produit par exemple lorsqu’on considère le
nombre d’accident provoquée par vaccin, le nombre de
suicide dans une grande ville, pour une période donnée.
Lien avec la loi Binômiale: remarque
1 Notons que puisque X est distribuée selon une loi
Binômiale, ses valeurs ne peuvent dépasser n, alors que
l’approximation par la loi de Poisson autorise des
valeurs supérieurs. Cependant le calcule fournit des
probabilité très faibles pour ces valeurs aberrantes.
2 Lorsque 5 ≤ n × p ≤ 10, on doit aux deux approximation
(par la loi de Poisson et la loi normale), mais bien sûr,
celle de Poisson est d’autant meilleur, et donc
préférable, que q est plus proche de 0.
Approximation: Exemple
La probabilité d’observer une mutation sur un individu
étant de 10−4 , combien d’individus faut-il s’attendre à
examiner pour être pratiquement "sûr" d’observer au
moins un mutant ?
Soit n ce nombre et soit X la v.a. qui associe à ces n
individus le nombre de mutant que l’on peut observer
parmi eux. Donc, X B(n, 10−4 ). Comme 10−4 est une
valeur très faible et que n a certainement une valeur
élevée, on peut dire que X suit pratiquement une loi de
Poisson de P(λ = n × 10−4 ).
Exemple
Si on considère comme pratiquement sûr un événement
de probabilité au moins égale à 0.95, on écrit:
IPr(x ≥ 1) ≥ 0.95 ⇔ IPr(x < 1) < 0.05 .
Or
−4
IPr(x < 1) = IPr(x = 0) = e−λ < 0.05 ⇔ e−n∗10 < 0.05
⇔ n ≥ −10
ln 0.05
−4
⇔ n ≥ 29958
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise
Loi de Poisson
Approximation des lois Binômiales
Exercices
Exemple 1
Soient X et Y deux v.a.r. de loi de Bernoulli. Montrer que
cov(X, Y) = 0 si et seulement si X et Y sont
indépendantes.
Benchikh Tawfik Probabilité
Exemple 2
Dans un lecteur CD, le canal de transmission des
informations ne traite que des 0 et des 1. A cause de
perturbations dues à l’électricité statique, chaque chiffre
transmis l’est avec une probabilité d’erreur de 1/5. Dès
lors, pour éviter une erreur, on transmettra une
séquence de cinq 0 au lieu de 0 et de cinq 1 au lieu de
1. Le récepteur décode selon la règle de la majorité.
a. Quelle est la probabilité de mauvaise interprétation d’une
information ?
b. Une chanson standard de trois minutes est composée de
180.000 signaux digitaux. Quelle est la probabilité qu’elle soit
décodée sans erreur?
Exemple 3
Durant le week-end, normalement, un seul chirurgien de
garde est présent aux urgences de l’Hôpital de SBA et il
suffit d’habitude à la tâche. Cependant, il s’avère que
des vies humaines sont en jeu si le temps d’attente
avant traitement est trop élevé. Les responsables de
l’hôpital ont estimé que c’était le cas si plus de 5
personnes se présentaient en une heure aux urgences.
Dans ce dernier cas, on appelle chez lui, un autre
médecin. Si vraiment le flux des patients est trop grand
(plus de 10 personnes à l’heure), on appelle alors en
renfort un troisième médecin. Au cours des 20 derniers
week-ends pour lesquels on a conservé des données
précises, on a pu calculer que le taux moyen d’arrivées
aux urgences était de 3 personnes par heure.
Exemple 3 la suite
a. On vous demande de calculer, pour le week-end
prochain, quelle est la probabilité de devoir faire appel à
un autre médecin et à deux autres médecins au cours
d’une heure donnée.
b. Il est 9h10 du matin, ce samedi, le docteur Mohamed
vient de prendre son service depuis 10 minutes et 3
personnes au moins sont déjà arrivées depuis aux
urgences, victimes d’un accident. Quelle est la
probabilité que durant les 50 minutes qui suivent, on
doive faire appel en renfort à son collègue Ahmed ?