0% ont trouvé ce document utile (0 vote)
175 vues64 pages

VADE Probabilités

Le document présente plusieurs lois de probabilité discrètes, notamment la loi uniforme, la loi de Bernoulli, la loi binomiale, la loi multinomiale, la loi géométrique, la loi de Pascal et la loi binomiale négative. Le document détaille les définitions, modèles et caractéristiques de ces lois.

Transféré par

haha
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
175 vues64 pages

VADE Probabilités

Le document présente plusieurs lois de probabilité discrètes, notamment la loi uniforme, la loi de Bernoulli, la loi binomiale, la loi multinomiale, la loi géométrique, la loi de Pascal et la loi binomiale négative. Le document détaille les définitions, modèles et caractéristiques de ces lois.

Transféré par

haha
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Variable aléatoire discrète

Exemples des variables aléatoires discrètes :

École Supérieure d’Informatique, SBA


2ième année CP

30 Novembre / 07 Décembre 2017

Benchikh Tawfik Probabilité


Plan de cours
1 Variables certaine- Loi uniforme
2 Les Lois du tirage avec remise
Loi de Bernoulli
Loi Binomiale
Loi multinomiale
Temps d’attente: Loi géométrique
Temps d’attente: Loi de Pascal
Nombre d’échecs: Loi Binomiale négative
3 Lois du tirage sans remise
Loi hypergéométrique
Temps d’attente dans le tirage sans remise
4 Loi de Poisson
5 Approximation des lois Binômiales
6 Exercices
Benchikh Tawfik Probabilité
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise
Loi de Poisson
Approximation des lois Binômiales
Exercices

Variables certaine

On appelle variable certain une v.a.r. constante:


∃a ∈ R/X(Ω) = {a}.
Par conséquent: Pr(X = a) = 1, IE(X) = a, V(X) = 0.
Soit X une v.a.r. tel que V(X) = 0. Alors X est une
variable certaine, ou quasi-certaine (i.e., si X prend
plusieurs valeurs, elle prend l’une d’elle avec la
probabilité 1 et les autres avec la probabilité nulle).

Benchikh Tawfik Probabilité


Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise
Loi de Poisson
Approximation des lois Binômiales
Exercices

Loi uniforme: Définition

On dit qu’une v.a.r. suit une loi uniforme discrète sur [1, n], si
l’on a: X(Ω) = [1, n] et ∀k ∈ [1, n]: Pr(X = k) = 1n .

On écrit X Un .

Benchikh Tawfik Probabilité


Loi uniforme: Calcule des paramètres:

n n n
X X 1 1X 1 n(n + 1)
IE(X) = k Pr(X = k) = k = k= =
k=1 k=1
n n k=1 n 2
n+1
.
2
n n n
21 1X 2
X X
2 2
IE(X ) = k Pr(X = k) = k = k
k=1 k=1
n n k=1
1 n(n+1)(2n+1) (n+1)(2n+1)
= n 6
= 6
.
2
2
V(X) = IE(X ) − (IE(X))2 = n 12−1 .
Loi uniforme: Domaine d’utilisation

La loi de probabilité uniforme intervient dans de


nombreux domaines comme:
les jeux de pile ou face ou les jeux de dés (avec une pièce ou
un dé parfaitement équilibré(e)),
les jeux de cartes, les loteries, les sondages, ect.
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative

Loi de Bernoulli: Définition

On dit qu’une v.a.r. est une variable de Bernoulli si elle ne


prend que les 2 valeurs 0 et 1 non nulles.

Notation: On note loi de X:

Pr(X = 1) = p ; Pr(X = 0) = q = 1 − p , p ∈]0, 1[

et on écrit: X B(1, p).

Benchikh Tawfik Probabilité


Loi de Bernoulli: le modèle

Le modèle probabiliste est donné par le lancer d’une


pièce où la probabilité d’amener "pile" est p ∈]0, 1[,
pile=succés.
Une v.a. de Bernoulli illustre plus généralement tout
expérence aléaoire n’ayant que 2 issues possibles et
effectue 1 fois.
Loi de Bernoulli: Les paramètres

IE(X) = 0 × q + 1 × p = p.
V(X) = (0 − p)2 × (1 − p) + (1 − p)2 × p = p × q.
Loi de Bernoulli: Exemple

Soit A un événement d’un espace de probabilité


(Ω, A, Pr).
On appelle v.a.r. indicatrice de l’événement A,
l’application:
ΦA = 11A : Ω −→ R ,
définie par: ∀ω ∈ A; ΦA (ω) = 1 et ∀ω ∈ A; ΦA (ω) = 0.
ΦA est une varaible de Bernoulli (sauf si A est
quasi-impossible ou quasi-certain) et on a: (ΦA = 1) = A
d’ou IE(ΦA ) = Pr(A).
Loi de Bernoulli: Exercice

Soit k ∈ N, calculer le moment et le moment centré


d’ordre k d’une v.a.r. de Bernoulli.
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative

Loi Binomiale: le modèle


On considère une urne contenant 2 catégories de
boules, des boules blanches en proportion p et des
boules non blanches en proportion q = 1 − p.
Soit l’expérience aléatoire qui consiste à tirer n boules
avec remise de cette urne.
On appelle X le nombre aléatoire de nombre de boules
blanches obtenus au cours de ce tirage de n boules.
Ce modèle servira plus généralement lorsque l’on
s’interessera au nombre de succés obtenus lors d’une
succession de n essais indépendants, le succés avec
probabilité p et l’échec avec q = 1 − p.
On voit que X(Ω) = [0, n].
Benchikh Tawfik Probabilité
Loi Binomiale: Définition

On dit qu’une v.a.r. X suit une loi Binomiale de paramètre n


et p si l’on a:
X(Ω) = [0, n], et
∀k ∈ [0, n]: Pr(X = k) = Cnk pk (1 − p)n−k .

On écrit: X B(n, p).


 Vérifiant qu’il s’agit d’une loi de probabilité:
n
X n
X
Pr(X = k) = Cnk pk (1 − p)n−k = (p + q)n = 1 .
k=0 k=0
Loi Binomiale: ramarques

Une v.a.r. de Bernoulli est une variable Binomiale


B(1, p).
Toute variable Binomiale X B(n, p) est la somme de n
variables de Bernoulli indépendantes
X1 , . . . , Xn B(1, p):
n
X
X= Xi ; Xi B(1, p) .
i=1
Loi Binomiale: caractéristiques

Soit X B(n, p), alors:


IE(X) = n × p. (Utiliser le lemme suivant: soit k ∈ N∗ et n ∈ N,
k−1
tel que: k ≤ n. On a: kCnk = nCn−1 ).
Pn
V(X) = n × p × q (utiliser V(X) = IE(X 2 ) − IE(X)2 où Var( i=1 X)
où Xi B(1, p) indépendantes).
Loi Binomiale: Exemple 1

On jette 6 fois une pièce de monnaie bien équilibrée, on


suppose que face est un succès. On a donc: p = 12 ,
n = 6.
a) IPr(on ait exactement 2 faces) = IPr(X = 2) = C62 ( 12 )2 ( 21 )4 = 15
64 .
b) IPr(d’avoir au moins 4 faces) =
IPr(X ≥ 4) = IPr(X = 4) + IPr(X = 5) + IPr(X = 6)
= C64 ( 21 )4 ( 12 )2 + C65 ( 12 )5 ( 21 )1 + C66 ( 12 )6 .
15 6 1 11
= 64 + 64 + 64 = 32
Loi Binomiale: Exemple 2

Un examen consiste à répondre à 4 questions à coté


des quelles on trouve cinq réponses possibles: parmi
les réponses, une seule est correcte. Pour réussir
l’examen, il faut répondre correctement à trois questions
au moins. Quelle est la probabilité pour qu’un étudiant
n’ayant pas préparé son examen réussisse?
Loi Binomiale: Exemple 2

Si l’étudiant n’a pas préparé son examen, il devra choisir


les réponses "au hasard", c’est-à-dire que toutes les
réponses ont la même probabilité d’être choisir, en
particulier la réponse correcte, il s’en suit que p = 15 pour
cet étudiant là.
Pour chaque étudiant l’examen peut être assimilé à loi
de Bernoulli où le succès est la réponse juste.
X B(n, p) = B(4, 15 ). (X: nombre des réponses juste).
L’événement "réussir l’examen" peut être décrit par:
"(X = 3) ou (X = 4)"="(X ≥ 3)", et IPr(X ≥ 3) = 0.0272.
Loi Binomiale: Exemple 3

On veut réaliser une étude clinique sur des malades se


présentant à une consultation hospitalière. Pour cette
étude, seuls les malades répondant à un ensemble de
critères C sont retenus. Des statistiques antérieures ont
montré que 20% des consultants présentent les critères
C. 10 malades viennent consulter le premier jour.
Soit X la variable aléatoire "nombre de malades
retenus", c’est-à-dire répondant à l’ensemble des
critères C.
La variable X suit la loi binomiale B(10, 0.2).
Loi Binomiale: Exemple 3

La probabilité qu’aucun malade ne soit recruté ce jour


est égale à:
0
Pr(X = 0) = C10 (0.2)0 (0, 80)1 0 = 0, 107 .

La probabilité pour qu’il y ait au moins un malade


recruté est égale à :

Pr(X ≥ 1) = 1 − Pr(X ≤ 0) = 1 − 0.107 = 0.803 .


Loi Binomiale: Exercice

Quelle est la probabilité de trouver x = 0, 1, 2 ou 3 filles


dans des familles de n = 3 enfants.
Loi Binomiale: Stabilité de la loi binomiale

Soit X et Y deux variables indépendentes suivant des


lois binomiales respectivement X B(n, p) et
Y B(m, p).
Alors X + Y B(n + m, p).
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative

Le modèle:
La loi multinomiale est une généralisation de la loi
binomiale.
Une population P est composée d’individus appartenant
à k types différents, dans des proportions p1 , p2 , . . ., pk
telles que
k
X
pi = 1 .
i=1

On tire un échantillon de n individus, de façon


équiprobable et indépendante et on s’intéresse à la
composition de l’échantillon.
Benchikh Tawfik Probabilité
Loi multinomiale: Définition

Soit Xi la variable aléatoire représentant le nombre


d’individus de type i dans l’échantillon et soit


X = (X1 , . . . , Xk ) un vecteur aléatoire réelle.
Alors
On dit que X suit loi multinomiale de paramètres
(n; p1 , . . . , pk ) si:


1. X (Ω) ∈ Nk , et
2. Pr [X = (x1 , x2 , . . . , xk )] = n! x1 x2
x1 !x2 !...xk ! p1 p2 . . . pxkk .


Nous écrivons X M(n; p1 , . . . , pk ).
Vérification qu’il s’agit d’une loi de probabilité:
X X n!
Pr [X = (x1 , x2 , . . . , xk )] = px1 px2 . . . pxkk = 1 .
x1 !x2 ! . . . xk ! 1 2
Explication:

En effet
Pr(X = (x1 , x2 , . . . , xk ))
xk
x2
= Cnx1 Cn−x1
. . . Cn−(x px1 px22 . . . pxkk
1 +x2 +...+xk−1 ) 1

= n!
px1 px2
x1 !x2 !...xk ! 1 2
. . . pxkk .


k
X k
X
pi = 1 , xi = n .
i=1 i=1

Le coefficient x1 !x2n!!...xk ! est le nombre de partitions d’un


échantillon de taille n en sous-populations d’effectifs xi
(combinaison avec répétition).
Loi multinomiale: propriété

La loi marginale de Xi est une loi binomiale B(n, pi ).


En effet, un élément tiré est:
 soit du type i avec la probabilité pi ,
 soit de n’importe quel autre type avec la probabilité (1 − pi ).
Le nombre d’individus du type i dans l’échantillon suit
donc la loi binomiale B(n, pi ).
D’où: IE(Xi ) = npi et Var(Xi ) = npi (1 − pi ).
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative

Loi géométrique: le modèle


Reprenons l’urne précédente et supposons toujours
qu’elle contienne une proportion p de boules blanche et
la proportion q = 1 − p de boules noires, avec p ∈]0, 1[.
On tire alors successivement des boules une à une en
remettant à chaque fois la boule tirée
er
On note X le rang de l’apparition de la 1 boule blanche.
er
On dit que X est le temps d’attente de la 1 boule
blanche.
Ce modèle servira également lorsque l’on s’interesse au
er
temps d’attente du 1 succés lors d’une succession
d’expérences aléatoire indépendantes n’ayant que 2
issues, le succés et l’échec avec probabilité p et q.
Benchikh Tawfik er Probabilité er

Loi géométrique: définition

Définition
On dit qu’une v.a.r. X suit une loi géométrique de paramètre
p si on a:
X(Ω) = N∗ , et
∀k ∈ N∗ : Pr(X = k) = pqk−1 .

Notation: Nous écrivons X G(p).


Loi géométrique: Explication
L’événement (X = k) est l’intersection des 2 événements
suivants:
A: "les (k − 1) premiers essais sons tous des échecs".
ième
B: "le k essais est un succésé.
Or les essais sont indépendants (q), on en déduit:

Pr(X = k) = Pr(A ∩ B) = Pr(A) × Pr(B) = qk−1 × p .

Vérification qu’il s’agit d’une loi de probabilité:



X ∞
X ∞
X
Pr(X = k) = pqk−1 = p qk−1 ,
k=1 k=1 k=1

série géométrique de raison q, et comme 0 < q < 1,


1
cette série est convergente de somme: 1−q = 1p , on a
P∞ p
donc: k=1 Pr(X = k) = p = 1.
Loi géométrique: Espérance et la variance

Soit X G(p). Alors (comme exercice), on a


IE(X) = 1p .
Var(X) = pq2 .
Loi géométrique: remarque

Soit X G(p) et considérons la v.a.r. Y définie par:


Y = X − 1.
Il est clair que Y représente le nombre d’échecs avant le
ième
1 succés.
On a Y(Ω) = N, et
∀k ∈ N, Pr(Y = k) = pqk = Pr(X = k + 1).
De même: IE(Y) = IE(X) − 1 = qp et Var(Y) = Var(X) = q
p2 .
Loi géométrique: Exemple

Un certain matériel a une probabilité p = 0, 02 constante


de défaillance à chaque mise en service. On procède à
l’expérience suivante, l’appareil est mis en marche,
arrêté, remis en marche, arrêté, jusqu’à ce qu’il tombe
en panne. Le nombre d’essais nécessaires pour obtenir
la panne est une variable aléatoire suivant la loi
géométrique de paramètre p.
La probabilité que ce matériel tombe en panne (pour la
première fois) au dixième essai est égale à:

Pr(Y = 10) = (0, 02)(1 − 0, 02)9 = 0, 0167 .


Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative

Loi de Pascal: le modèle


Reprenons encore l’urne précédente. Soit r un entier >0.
On tire alors des boules une à une en remettant à
chaque fois la boule tirée.
ième
On note Xr le rang de l’apparition de la r boule
ième
blanche, et on dit que Xr est le temps d’attente de r
boule blanche.
Notons que X1 suit une loi géométrique.
Ce modèle servira également lorsque l’on s’interesse au
ième
temps d’attente du r succés et l’échecs avec les
probabilité p et 1 − p.
ième
On a dans ce cas Xr (Ω) = [r, +∞[, car le r succés ne
ième
Benchikh Tawfik Probabilité
Loi de Pascal: Définition

Définition:
On dit qu’une v.a.r. suit une loi de Pascal de paramètres r et
p si l’on a:
X(Ω) = [r, +∞[, et
r−1 r k−r
∀k ∈ [r, +∞[, Pr(X = k) = Ck−1 pq .

Notation: Nous écrivons X P(r, p).


Loi de Pascal: Explication:

r−1 r k−r
Pr(Xr = k) = Ck−1 pq .
En effet: l’événement (Xr = k) est l’intersection de A et B
suivants:
A: "Au cours des (k − 1)" premiers essais on a eu (r − 1)
succés.
èime
B: "le k essai est un succés".
Puisque A q B ⇒ Pr(Xr = k) = Pr(A) × Pr(B).
r−1 r−1 (k−1)−(r−1)
Or, par hypothèse, Pr(B) = p et Pr(A) = Ck−1 p q
car il s’agit de la probabilité d’obtenir (r − 1) en (k − 1) essais
indépendants de même probabilité p.
Nous sommes donc alors en présence d’un phénomène
binomial.
r−1 r k−r
On a par conséquent: Pr(Xr = k) = Ck−1 pq .
Loi de Pascal: Explication:
Nous pouvons vérifier que la loi de Xr est bien une loi de
probabilité.
En effet:

X ∞
X
r−1 r k−r
Pr(Xr = k) = Ck−1 pq .
k=r k=r

Changement d’indice k − 1 = h et pr en facteur, ce qui


donne:
∞ ∞
X X pr
Pr(Xr = k) = pr Chr−1 qh−r−1 = = 1.
k=r h=r−1
(1 − q)r

(on utilise le résultat suivant: ∀q ∈ [0, 1[; ∀r ∈ N∗ ,



X 1
Ckr−1 qk−r−1 = .)
k=r−1
(1 − q)r
Loi de Pascal: paramètres

Soit X P(r, p),

r r×q
IE(X) = p
et V(X) = p2
.
Variables certaine- Loi uniforme Loi de Bernoulli
Les Lois du tirage avec remise Loi Binomiale
Lois du tirage sans remise Loi multinomiale
Loi de Poisson Temps d’attente: Loi géométrique
Approximation des lois Binômiales Temps d’attente: Loi de Pascal
Exercices Nombre d’échecs: Loi Binomiale négative

Loi Binomiale négative: le modèle

Considérons une successions indéfinie d’essais


indépendantes d’une épreuve à 2 issues et appelons Yr
ième
le nombre d’échecs précedent r succés.
Il est clair que Yr est lié à Xr (loi de Pascal) par la formule
Yr = Xr − r (il y a r succés). Alors Yr se déduit de Xr .

Benchikh Tawfik Probabilité


Loi Binomiale négative: définition et caractéristiques

Définition
Soit X une v.a.r. On dit que X suit loi binomiale négative de
paramètres r et p, si X + r suit une loi de Pascal de
paramètres r et p.

Notation: Nous écrivons X I(r, p).


Si X I(r, p) où BN (r, p). On a:
r−1
X(Ω) = N et ∀k ∈ N, Pr(X = k) = Ck+r−1 pr qk = Ck+r−1
k
pr qk .
r rq
IE(X) = p − r = p .
V(X) = r.q
p2 .
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise Loi hypergéométrique
Loi de Poisson Temps d’attente dans le tirage sans remise
Approximation des lois Binômiales
Exercices

Le modèle

On considère l’urne précedente avec Np boules


blanches et Nq boules noires, on tire n boules de cette
urne, sans remise,
on appelle X la variable aléatoire réelle égale au nombre
des boules blanche obtenus.
On a dans ce cas X(Ω) ∈ [0, n] et plus précésiment:

X(Ω) = [max(0, n − Nq ), min(n, n − Np )] .

où Np est le nombre des boules blanche et Nq est le


nombre des boules non blanche.

Benchikh Tawfik Probabilité


Loi hypergéométrique: définition

Soit X une variable aléatoire réelle. Alors on dit que:

X suit une loi hypergéométrique de paramètre N, n et p si:


 X(Ω) ⊂ [0, n] , et
CNn p CNn−k
 Pr(X = k) = CNn
q
, où N = Np + Nq .

Nous écrivons X H(N, n, p).


Loi hypergéométrique: Explication:

Rappelons tout d’abord que le cœfficient Cnp est nul si


p < 0 ou si p > n.
Ainsi Pr(X = k) est nul si k excède Np ou si n − Nq
excède k. c’est pour cela que la connaissance de X(Ω)
n’est pas fondamentale.
Le tirage s’effectue sans remise, on peut appeler
résultat du tirage toute partie à n éléments d’un
ensemble qui en possède N.
Tout ces résultats sont équiprobable et sont au nombre
de CNn .
Loi hypergéométrique: Explication:

Pour calculer Pr(X = k) il suffit donc de dénombrer les


résultats favorables, i.e.: ceux amenant exactement k
boules blanche.
Un résultat favorable s’obtient en choisissant k boules
blanche parmi Np ce qui peut se faire de CNk p façons, puis
dans chacun de ces cas il existe CNn−kq
façons de choisir
les (n − k) boules non blanche pour complèter le tirage.
Le nombre de ces cas favorable est ainsi CNk p CNn−k
q
.
Loi hypergéométrique: Explication:

On a: n
X
n
CNk p CNn−k
q
X k=0
Pr(X = k) = = 1.
k=0
CNn
n
X
car CNk p CNn−k
q
= CNn (identité de Vandermonde
k=0
Np + Nq = N).
Pour l’espérance et la variance on a:

IE(X) = n.p et V(X) = n.p.q N−n


N−1
.

rappel: k(k − 1)CNk p = Np (Np − 1)CNk−2


p −2
.
Remarque

Que les tirages soient effectués avec au sans remise,


l’éxpérience du nombre de boules blanche est la même.
C’est à dire que la loi hypergéométrique ne dépend pas
de N.
Par contre la variance a changé. On trouve n ∗ p ∗ q
N−n
multiplié par le cœfficient N−1 . Ce cœfficient porte le
nom de cœfficient d’exhaustivité. Il vaut 1 si n = 1 et on
a: N−n
N−1
≤ 1. C’est à dire qu’une variable aléatoire réelle
hypergéométrique est moins dispersée que la variable
aléatoire réelle binomiale.
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise Loi hypergéométrique
Loi de Poisson Temps d’attente dans le tirage sans remise
Approximation des lois Binômiales
Exercices

ième
On s’interrese au rang de l’apparition de la r boule
blanche.
Etudiant le cas où r = 1.

Benchikh Tawfik Probabilité


Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise Loi hypergéométrique
Loi de Poisson Temps d’attente dans le tirage sans remise
Approximation des lois Binômiales
Exercices
er
Rang d’apparition de la 1 boule blanche

0 er
Soit X1 le rang d’apparition de la 1 boule blanche.
0
Il est clair que X1 = [1, Nq + 1].
0
Soit k ∈ [1, Nq + 1]. L’événement X1 = k est l’intersection
des événements A1 et B1 suivant:
 A1 : "Les (k − 1) premières sont noires".
ième
 B1 : "la k boule est blanche".

Benchikh Tawfik Probabilité


Ck−1
On a: Pr(A1 ) = CNk−1
q
(loi hypergéométrique: on veut
N
(k − 1) boules noires et 0 boules blanche dans un tirage
exhaustif de (k − 1) boules).
Np
Pr(B1 /A1 ) = N−k+1 ,
il vient alors:
0
Pr(X1 = k) = Pr(A1 ∩ B1 ) = Pr(A1 )IPr(B1 /A1 )
CNk−1
q Np
= CNk−1 N−k+1
k−1
Np CNq
= k CNn
,

i.e.
k−1
0 Np CNq
∀k ∈ [1, Nq + 1] Pr(X1 = k) = .
k CNk

0 N+1 0 N 2 (N+1)pq
IE(X1 ) = Np +1
et V(X1 ) = (Np +1)2 (Np +2)
.
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise Loi hypergéométrique
Loi de Poisson Temps d’attente dans le tirage sans remise
Approximation des lois Binômiales
Exercices
ième
Rang d’apparition de la r boule blanche

0 ième
Soit Xr le rang d’apparition de la r boule blanche
(r ≤ Np ).
0
On a de même X1 = [r, Nq + r].
0
L’événement Xr = k est l’intersection des événements Ar
et Br suivant:
 Ar : " (r − 1) boules blanches au cours des (k − 1) tirages".
ième
 B1 : "la r boule est blanche".

Benchikh Tawfik Probabilité


Cr−1 Ck−r
On a: Pr(Ar ) = NCp k−1Nq (loi hypergéométrique: on veut
N
(r − 1) boules blanches et (k − r) boules noires dans un
tirage exhaustif de (k − 1) boules).
p −r+1
Pr(Br /Ar ) = NN−k+1 ,
il vient alors:
0
Pr(Xr = k) = Pr(Ar ∩ Br ) = Pr(Ar )IPr(Br /Ar )
CNr−1
p
CNk−r
q Np −r+1
= CNk−1 N−k+1
C r Ck−r
r Np Nq
= k CNk
,

i.e.
r k−r
0 r CNp CNq
∀k ∈ [r, Nq + r] Pr(Xr = k) = .
k CNk

0 0
IE(Xr ) =? et V(Xr ) =?.
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise
Loi de Poisson
Approximation des lois Binômiales
Exercices

Exemple

La loi discrète (très importante) s’interesse souvent aux:

nombre de véhicules franchissant un poste de péage pendant


une période T,
nombre d’appels reçus par un standar téléphonique pendant
une période T,
nombre de défaut dont est affecté un objet qui est fabriqué eb
série etc ...

Benchikh Tawfik Probabilité


Loi de Poisson: Définition

Définition:
On dit qu’une variable aléatoire discète X suit une loi de
Poisson de paramètre λ > 0 si les deux conditions suivantes
sont réalisées:
X(Ω) = N,
k
∀k ∈ N, Pr(X = k) = e−λ λk! .

Nous écrivons X P(λ).


On vérifie aisément:
+∞ +∞
X X λk
Pr(X = k) = e−λ = e−λ eλ = 1 .
k=0 k=0
k!
Loi de Poisson: remarque

X est la variable aléatoire représentant le nombre


d’apparitions indépendantes d’un événement faiblement
probable (événement rare observé pendant une
période) dans une population infinie (varie entre 0 et
∞).
Si deux variables aléatoires indépendants X1 et X2 sont
distribuées selon des lois de Poisson de paramètres λ1
et λ2 , alors la variable X1 + X2 est distribuée selon une loi
de Poisson de paramètre λ1 + λ2 .
Loi de Poisson: Espérance et variance

Si X P(λ), alors IE(X) = λ et V(X) = λ.

La série est convergente (critère d’Alembert).


+∞ +∞
X X λk
IE(X) = k Pr(X = k) = ke−λ
k=0 k=0
k!
+∞
X λk
= e−λ
k=0
(k − 1)!
+∞
X λk−1
= λe−λ = λ.
k=1
(k − 1)!

+∞
X λk−2
De même: IE(X(X − 1)) = λ2 e−λ = λ2 .
k=2
(k − 2)!
D’où: V(X) = λ2 + λ − λ2 = λ.
Remarque

Si on connaît la probabilité de n’observé aucune


événement, c’est-à-dire IPr(X = 0) = p, alors, d’après la
0
formule du loi on a: p = IPr(X = 0) = e−λ λ0! = e−λ .
On en déduit: λ = − ln(p) et:
1
IPr(X = 1) = e−λ λ1! = pλ
2
IPr(X = 2) = e−λ λ2! = IPr(X = 1) λ2
.. .. ..
. . .
k
IPr(X = k) = e−λ λk! = IPr(X = k − 1) λk
On peut ainsi calculer facilement de proche en proche
les probabilité des diverses valeurs de k.
Approximation de la loi Binômiale par une loi de
Poisson

Si X B(n, p),
Si p est petit (en pratique p < 0.1), n assez grand
(supérieur à 50), et 0 ≤ n × p ≤ 10
Alors, la loi Binômiale peut être approximée par Y, une
loi de Poisson de paramètre λ = n × p
 IPr([X = k]) = IPr([Y = k])
 La probabilité IPr([Y > n]) est faible, mais non nulle.
Les calcule sont plus simple avec la loi de Poisson
qu’avec la loi Binômiale.
Lien avec la loi Binômiale

Par exemple, sur un échantillon de grand taille, on


étudie le nombre de fois que se produit un événement
"rare", c’est-à-dire approximation de la loi Binômiale
B(n, p) lorsque n est grand et p faible (ou 1 − p faible) de
façons que λ = n ∗ p soit l’ordre de l’unité.
Cela se produit par exemple lorsqu’on considère le
nombre d’accident provoquée par vaccin, le nombre de
suicide dans une grande ville, pour une période donnée.
Lien avec la loi Binômiale: remarque

1 Notons que puisque X est distribuée selon une loi


Binômiale, ses valeurs ne peuvent dépasser n, alors que
l’approximation par la loi de Poisson autorise des
valeurs supérieurs. Cependant le calcule fournit des
probabilité très faibles pour ces valeurs aberrantes.
2 Lorsque 5 ≤ n × p ≤ 10, on doit aux deux approximation
(par la loi de Poisson et la loi normale), mais bien sûr,
celle de Poisson est d’autant meilleur, et donc
préférable, que q est plus proche de 0.
Approximation: Exemple

La probabilité d’observer une mutation sur un individu


étant de 10−4 , combien d’individus faut-il s’attendre à
examiner pour être pratiquement "sûr" d’observer au
moins un mutant ?
Soit n ce nombre et soit X la v.a. qui associe à ces n
individus le nombre de mutant que l’on peut observer
parmi eux. Donc, X B(n, 10−4 ). Comme 10−4 est une
valeur très faible et que n a certainement une valeur
élevée, on peut dire que X suit pratiquement une loi de
Poisson de P(λ = n × 10−4 ).
Exemple

Si on considère comme pratiquement sûr un événement


de probabilité au moins égale à 0.95, on écrit:

IPr(x ≥ 1) ≥ 0.95 ⇔ IPr(x < 1) < 0.05 .

Or
−4
IPr(x < 1) = IPr(x = 0) = e−λ < 0.05 ⇔ e−n∗10 < 0.05
⇔ n ≥ −10
ln 0.05
−4

⇔ n ≥ 29958
Variables certaine- Loi uniforme
Les Lois du tirage avec remise
Lois du tirage sans remise
Loi de Poisson
Approximation des lois Binômiales
Exercices

Exemple 1

Soient X et Y deux v.a.r. de loi de Bernoulli. Montrer que


cov(X, Y) = 0 si et seulement si X et Y sont
indépendantes.

Benchikh Tawfik Probabilité


Exemple 2

Dans un lecteur CD, le canal de transmission des


informations ne traite que des 0 et des 1. A cause de
perturbations dues à l’électricité statique, chaque chiffre
transmis l’est avec une probabilité d’erreur de 1/5. Dès
lors, pour éviter une erreur, on transmettra une
séquence de cinq 0 au lieu de 0 et de cinq 1 au lieu de
1. Le récepteur décode selon la règle de la majorité.
a. Quelle est la probabilité de mauvaise interprétation d’une
information ?
b. Une chanson standard de trois minutes est composée de
180.000 signaux digitaux. Quelle est la probabilité qu’elle soit
décodée sans erreur?
Exemple 3

Durant le week-end, normalement, un seul chirurgien de


garde est présent aux urgences de l’Hôpital de SBA et il
suffit d’habitude à la tâche. Cependant, il s’avère que
des vies humaines sont en jeu si le temps d’attente
avant traitement est trop élevé. Les responsables de
l’hôpital ont estimé que c’était le cas si plus de 5
personnes se présentaient en une heure aux urgences.
Dans ce dernier cas, on appelle chez lui, un autre
médecin. Si vraiment le flux des patients est trop grand
(plus de 10 personnes à l’heure), on appelle alors en
renfort un troisième médecin. Au cours des 20 derniers
week-ends pour lesquels on a conservé des données
précises, on a pu calculer que le taux moyen d’arrivées
aux urgences était de 3 personnes par heure.
Exemple 3 la suite

a. On vous demande de calculer, pour le week-end


prochain, quelle est la probabilité de devoir faire appel à
un autre médecin et à deux autres médecins au cours
d’une heure donnée.
b. Il est 9h10 du matin, ce samedi, le docteur Mohamed
vient de prendre son service depuis 10 minutes et 3
personnes au moins sont déjà arrivées depuis aux
urgences, victimes d’un accident. Quelle est la
probabilité que durant les 50 minutes qui suivent, on
doive faire appel en renfort à son collègue Ahmed ?

Vous aimerez peut-être aussi