100% ont trouvé ce document utile (1 vote)
626 vues24 pages

Probabilités Discrètes pour ECS1

Ce document présente les objectifs du programme de probabilités discrètes au lycée. Il introduit les notions de tribu, d'espace probabilisé, de variables aléatoires réelles et discrètes, et d'espérance d'une variable aléatoire.

Transféré par

Meryem Krim
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
626 vues24 pages

Probabilités Discrètes pour ECS1

Ce document présente les objectifs du programme de probabilités discrètes au lycée. Il introduit les notions de tribu, d'espace probabilisé, de variables aléatoires réelles et discrètes, et d'espérance d'une variable aléatoire.

Transféré par

Meryem Krim
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Mathématiques - ECS1

22

Probabilités discrètes.
Lycée La Bruyère
30 avenue de Paris
78000 Versailles

c 2015, Polycopié du cours de mathématiques de première année.



2 

22.1 Objectifs du programme.

Tribu d’événements ou σ-algèbre d’événements. Notation A.


Généralisation de la notion de système complet d’évé- On pourra donner quelques exemples significatifs
nements à une famille dénombrable d’événements d’événements
+∞
de la forme
+∞
:
deux à deux incompatibles et de réunion égale à Ω.
\ [
A= An et A = An .
n=0 n=0
On fera le lien avec le cas des univers finis en ex-
pliquant que P(Ω) est une tribu.
On pourra introduire différentes tribus sur
{1, 2, 3, 4, 5, 6} et montrer que le choix de la tribu
dépend de l’expérience que l’on cherche à modé-
liser.
Une probabilité est une application P définie sur la
tribu A à valeurs dans [0, 1], σ-additive telle que
P(Ω) = 1.

Tribu engendrée par un système complet d’événe- Existence admise.


ments.
Notion d’espace probabilisé. Notation (Ω, A, P).
Propriétés vraies presque sûrement. Événement négli-
geable, événement presque sûr.

Théorème de la limite monotone. • Pour toute suite


 +∞ croissante
 (An ) d’événements,
[ 
P  An  = lim P (An ).
n→+∞
n=0
• Pour toute suite
 +∞décroissante
 (An ) d’événements,
\ 
P  An  = lim P (An ).
n→+∞
n=0

Conséquences du théorème de la limite monotone. Pour toute suite (An ) d’événements,


+∞
  n 
[ [ 
• P  An  = lim P  Ak .

  
n→+∞
 n=0
+∞
  k=0
n

\ \
• P  An  = lim P  Ak .
  
  
n→+∞
n=0 k=0
Les démonstrations de ces formules ne sont pas
exigibles.
On pourra donner comme exemple d’événement
négligeable la réalisation d’une suite infinie de
pile lors d’un jeu de pile ou face.

Généralisation de la notion de probabilité condition- Si A vérifie P(A) , 0, alors (Ω, A, PA ) est un es-
nelle. pace probabilisé.

Généralisation de la formule des probabilités compo-


sées.
Généralisation de la formule des probabilités totales.

Indépendance mutuelle d’une suite infinie d’événe-


ments.
22.1 Objectifs du programme.  3

Définition d’une variable aléatoire. Une variable aléatoire réelle sur (Ω, A) est une ap-
plication de Ω dans R telle que, pour tout réel x,
{ω ∈ Ω | X(ω) 6 x} est dans la tribu A.
On adoptera les notations habituelles [X ∈ I],
[X = x], [X 6 x], etc.
On pourra, à l’aide d’exemples, illustrer com-
ment obtenir des événements du type [X = x] ou
[a 6 X < b] à partir d’événements du type [X 6
x].
Fonction de répartion d’une variable réelle. ∀x ∈ R, F X (x) = P(X 6 x).
Propriétés. F X est croissante et continue à droite en tout point,
lim F X = 0, lim F X = 1.
−∞ +∞
Loi d’une variable aléatoire. La fonction de répartition caractérise la loi d’une
variable aléatoire. Résultat admis.
Définition d’une variable aléatoire réelle discrète dé- L’ensemble des valeurs prises par ces variables
finie sur (Ω, A). aléatoires sera indexé par une partie finie ou in-
finie de N ou Z.
Caractérisation de la loi d’une variable aléatoire dis-
crète par la donnée des valeurs P(X = x) pour x ∈
X(Ω).
Tribu engendrée par une variable aléatoire discrète. La tribu AX des événements liés à X est la tribu
engendrée par le système complet ([X = x]) x∈X(Ω) .
Cette tribu est aussi appelée tribu engendrée par
la variable aléatoire X et constitue l’information
apportée par X.
Variable aléatoire Y = g(X), où g est définie sur l’en-
semble des valeurs prises par la variable aléatoire X.
Étude de la loi de Y = g(X).
Espérance d’une variable aléatoire. Quand X(Ω) est infini, XXadmet une espérance si
et seulement si la série xP(X = x) est abso-
x∈X(Ω)
lument convergente.
Théorème de transfert. Quand X(Ω) est infini, g(X) X admet une espé-
rance si et seulement si la série g(x)P(X = x)
x∈X(Ω)
Xabsolument convergente, et alors E(g(X)) =
est
g(x)P(X = x). Théorème admis.
x∈X(Ω)
E(aX + b) = aE(X) + b.
Moment d’ordre r (r ∈ N). Notation mr (X) = E(X r ).
Variance et écart-type d’une variable aléatoire dis- Notations V(X) et σ(X).
crète.
Calcul de la variance. Formule de Koenig-Huygens :
V(aX + b) = a2 V(X). V(X) = E(X 2 ) − (E(X))2 .
Cas particulier où V(X) = 0.
Variables centrées, centrées réduites. Notation X ∗ pour la variable aléatoire centrée ré-
duite associée à X.
Lois discrètes usuelles à valeurs dans un ensemble fini On généralisera les lois B(p), B(n, p) et U([[a, b]])
sur l’espace probabilisé (Ω, A, P). vues lors du premier semestre.
Loi géométrique (rang d’apparition d’un premier suc- Notation X ,→ G(p).
cès dans un processus de Bernoulli sans mémoire). Si X ,→ G(p), pour tout nombre entier naturel non
Espérance et variance. nul k,
P(X = k) = p(1 − p)k−1 .
Loi de Poisson : définition, espérance, variance. Notation X ,→ P(λ).
4 

22.2 Le langage des probabilités.

Etant donnée une expérience aléatoire, on lui a associé un univers Ω et pour décrire
les résultats de l’expérience, on a introduit la notion d’évènement.
Si on appelle A l’ensemble des évènements de Ω, cet ensemble A modélise l’infor-
mation que l’on peut obtenir à partir des résultats de l’expérience. Pour que la modélisation
soit cohérente avec l’intuition, l’ensemble A doit contenir Ω et être stable par les opéra-
tions ensemblistes (réunion, intersection et passage au complémentaire) : si A, B ∈ A alors
A ∪ B, A ∩ B, A doivent aussi appartenir à A.
Un tel ensemble stable par les opérations de réunion finie et de passage au complé-
mentaire est appelé une algèbre de Ω. On peut avoir A = P(Ω) ensemble de toutes les
parties de Ω mais on verra que ce n’est pas toujours le cas, certaines parties de Ω n’étant
pas nécessaires à la description de l’expérience.
Dans certains cas, la notion d’algèbre devient insuffisante pour décrire l’expérience et
la bonne notion est alors celle de tribu.

22.2.1 Tribu d’événements

Définition 1. Soit Ω un univers. On appelle tribu ou σ-algèbre de Ω tout sous-


ensemble A de P(Ω) vérifiant :
(i) Ω ∈ A
(ii) pour tout E ∈ A on a E ∈ A (stabilité par passage au complémentaire)
[
(iii) pour tout I ⊂ N et toute famille (Ei )i∈I d’éléments de A on a : Ei ∈ A (stabilité
i∈I
par réunion finie ou dénombrable)
On appelle alors évènement tout élément de la tribu A .

Remarque 1. (i) Une tribu contient toujours Ω et ∅.


(ii) Si Ω est fini, les notions de tribu et d’algèbre coincident puisque P(Ω) est fini.
Exemple 1. On lance indéfinimeent une pièce à Pile ou Face.
En notant An l’événement « Pile apparaît au ne lancer », l’événement A : « Pile apparaît à

\
tous les lancers » est l’événement A = An .
n=1

Exemple 2. Une puce, initialement placée en O, se déplace sur un axe gradué. Si, à un
instant, elle se trouve au point d’abscisse i, à l’instant d’après, elle se trouve soit au point
d’abscisse i − 1, soit au point d’abscisse i + 1.
On s’intéresse au retour de la puce en O, c’est à dire à l’événement A « la puce revient à sa
position initiale. »
Posons, pour tout entier n ≥ 3, l’événement An : « la puce se trouve en O à l’instant n. » On

[
a alors A = An , la réunion n’étant pas disjointe.
n=3

Définition 2. On appelle espace probabilisable tout couple (Ω, A) où Ω est un univers


et A une tribu sur Ω.
22.2 Le langage des probabilités.  5

Proposition 1. Soit Ω un univers et A une tribu sur Ω.


\
Pour tout I ⊂ N et toute famille (Ei )i∈I d’événements de A on a Ei ∈ A. (A est
i∈I
stable par intersection finie ou dénombrable.)

Exemple 3. Quelques exemples de tribus. Soit Ω un univers.


(i) {∅, Ω} est une tribu appelée tribu grossière ou triviale.
(ii) Si A ⊂ Ω alors {∅, A, A, Ω} est une tribu sur Ω.
(iii) P(Ω) est une tribu sur Ω appelée tribu discrète.
(iv) Si Ω = R alors {E ∈ P(R)|E ou E est fini ou dénombrable } est une tribu sur R.

Exercice 1. Ecrire à l’aide des opérations ensemblistes et des évènements de la famille


(A j ) j∈N suivants les évènements suivants :
(a) tous les événements Ak se réalisent.
(b) une infinité d’événements Ak se réalisent
(c) un nombre fini d’événements Ak se réalisent
(d) une infinité d’événements Ak ne se réalisent pas
(e) à partir d’un certain rang, tous les événements Ak se réalisent

Proposition 2. Soit Ω un univers et I un ensemble non vide.


\
Si (Ai )i∈I une famille quelconque de tribus sur Ω alors Ai est une tribu sur Ω.
i∈I

Tribu engendrée par une famille d’événements . Soit Ω un univers et X un sous en-
semble de P(Ω).
Il existe une unique tribu A vérifiant
(i) X ⊂ A et
(ii) toute tribu A0 sur Ω contenant X contient aussi A : i.e. si A0 est une algèbre et si
X ⊂ A0 alors X ⊂ A0
A s’appelle la tribu engendrée par X : c’est la plus petite tribu (au sens de l’inclusion)
contenant X.

Exemple 4. (i) Si A ⊂ Ω la tribu engendrée par A est {∅, A, A, Ω}.


(ii) Pour Ω = {1, 2, 3, 4, 5} et X = {{1, 2}, {3, 4}}, la tribu A engendrée par X doit contenir :
Ω, ∅, {1, 2}, {3, 4}, puis {1, 2} = {3, 4, 5}, {3, 4} = {1, 2, 5}
puis
{1, 2} ∪ {3, 4} = {1, 2, 3, 4} et enfin {1, 2, 3, 4} = {5}.
On vérifie ensuite que
n o
Ω, ∅, {1, 2}, {3, 4}, {3, 4, 5}, {1, 2, 5}, {1, 2, 3, 4}, {5}
est une tribu sur Ω, pour conclure que c’est la tribu A.
6 

Corollaire 3. Si X, Y sont deux parties de P(Ω) telles que X ⊂ Y alors la tribu


engendrée par Y contient la tribu engendrée par X.

Définition 3. Soit (Ω, A) un espace probabilisable.


On appelle système complet d’événements de Ω toute famille (Ei )i∈I finie ou dénom-
brable d’événements de Ω réalisant une partition de Ω, i.e. :
(i) I est fini ou dénombrable
(ii) Ei ∩ E j = ∅ pour tous i et j dans I tels que i , j
[
(iii) Ei = Ω
i∈I

Exemple 5. Un entier naturel non nul n est choisi au hasard puis on lance n pièces à P ou
F.
Pour k ∈ N∗ , on appelle Ek l’événement "on choisit l’entier k". La famille (Ek )k∈N∗ forme
un système complet d’événements.
Exemple 6. On lance indéfiniment une pièce à P ou F.
On note E0 l’événement « P n’apparaît jamais » et pour tout k ∈ N∗ , on note Ek l’événement
« P apparaît la première fois au ke lancer. »
La famille (Ek )k∈N forme un système complet d’événements.

22.3 Loi de probabilité.

22.3.1 Définitions et propriétés

Définition 4. Soit (Ω, A) un espace probabilisable. On appelle probabilité sur (Ω, A)


ou simplement sur Ω toute application P : A → [0, 1] vérifiant
(i) P(Ω) = 1
(ii) pour tout famille dénombrable (En )n∈N d’événements de Ω deux à deux  incompa-
+∞

X X [ 
tibles, la série P(En ) converge et sa somme vaut P(En ) = P  En 
n≥0 n=0 n∈N

Remarque 2. La propriété (ii) s’appelle propriété de σ-additivité de P.

Définition 5. Tout espace probabilisable (Ω, A) sur lequel est définie une probabilité P
est appelé espace probabilisé et noté (Ω, A, P).

Remarque 3. Quelques remarques importantes.


X
(1) En prenant En = ∅ pour tout n ∈ N, la série P(En ) converge donc P(En ) → 0. Une
n≥0
suite constante tendant vers 0 est la suite nulle donc P(∅) = 0.
22.3 Loi de probabilité.  7

(2) Si A et B sont deux évènements incompatibles alors P(A ∪ B) = P(A) + P(B). Il suffit
de compléter la famille (A, B) avec une suite d’èvènements impossibles ∅ et d’utiliser
la σ-additivité de P.
(3) Si A est finie ce qui est vrai si Ω est fini, la σ-additivité de P est équivalente à l’additi-
vité de P (pour tous événements E, F incompatibles, P(E ∪ F) = P(E) + P(F)).

Les propriétés vis à vis de la monotonie, de la réunion et du passage au complémen-


taires s’étendent au cas des univers dénombrables.

Proposition 4. Soit (Ω, A, P) un espace probabilisé et E, F deux évènements de Ω.


(1) P(F\E) = P(F) − P(E ∩ F)
(2) P(E ∪ F) = P(E) + P(F) − P(E ∩ F)
(3) P(E) = 1 − P(E)
(4) si E ⊂ F alors P(E) ≤ P(F).

Exercice 2. On lance deux dés jusqu’à ce qu’une somme de 5 ou 7 apparaisse.


(a) Soit En l’évènement " une somme de 5 apparait au n-ème double jet et sur les n − 1
premiers jets ni la somme de 5 ni celle de 7 apparait". Calculer P(En ).
(b) Quelle est la probabilité qu’on s’arrête sur une somme de 5 ?
(c) Quelle est la probabilité qu’on s’arrête sur une somme de 7 ?
(d) Quelle est la probabilité que le jeu ne s’arrête jamais ?

Remarque 4. Il n’est pas nécessaire de définir P sur la tribu A tout entière mais la définition
de P sur une famille d’évènements engendrant A est suffisante.
Exemple 7. On considère une cible circulaire de centre O de diamètre 2 partagée en sec-
teurs concentriques : le secteur 1 est la couronne circulaire délimitée par les cercles centrés
en O de rayon 12 et 1, le secteur 2 est la couronne circulaire délimitée par les cercles centrés
en O de rayon 14 et 12 , etc... le secteur n est la couronne circulaire délimitée par les cercles
1
centrés en O de rayon 2n+1 et 21n .
On lance une flèche sur la cible et on s’intéresse au numéro du secteur touché en supposant
une précision illimitée.
L’univers est Ω = N∗ , la tribu sur Ω est celle engendrée par les évènements élémentaires {k}
pour k ∈ N∗ . Il suffit donc de définir une probabilité sur la famille dévènements élémentaires
({k})k∈N∗ .
1 X1
En posant pour n ≥ 1, P({n}) = , on ne définit pas une probabilité car la série
n n≥1
n
diverge.
1
En revanche, en posant pour n ≥ 1, P({n}) = n , on définit une probabilité puisque la série
+∞
2
X 1 X 1
n
converge et n
= 1 = P(Ω).
n≥1
2 n=1
2
Quelle est la probabilité d’atteindre un secteur pair ?
1
Quelle est la probabilité que la flêche soit à une distance d’au plus n du centre de la
2
cible ?
8 

La proposition suivante étend les propriétés des systèmes complets d’événements au


cas dénombrable.

Proposition 5. Soit (Ω, A, P) un espace probabilisé et A un événement de Ω.


(1) Si (Ek )k∈N est un système complet (dénombrable) d’événements de Ω alors la série
X +∞
X
P(Ek ) converge et on a P(Ek ) = 1.
k≥0 k=0
(2) Si (Ei )i∈N est un système complet (dénombrable) d’événements de Ω alors la série
X +∞
X
P(A ∩ Ek ) converge et on a P(A) = P(A ∩ Ek ).
k≥0 k=0

Exemple 8. On considère des urnes en nombre infini, numérotées 1,2,. . . , n,. . .


L’urne numérotée n comporte n jetons numérotés de 1 à n.
On choisit une urne et on tire toutes les boules une à une sans remise.
1
L’urne numérotée n est choisie avec probabilité n .
2
Quelle est la probabilité d’obtenir les numéros dans l’ordre croissant ?

22.3.2 Théorème de la limite monotone

Théorème de la limite monotone . Soit (Ω, A, P) un espace probabilisé.


(1) Si (En )n∈N est une suite croissante d’événements (pour l’inclusion) alors
 
 [ 
P   Em  = lim P(En )
n→+∞
m∈N

(2) Si (En )n∈N est une suite décroissante d’événements (pour l’inclusion) alors
 
 \ 
P   Em  = lim P(En )
n→+∞
m∈N

Corollaire 6. Pour toute suite d’événements (En )n∈N de Ω, on a


   n 
 [  [ 
(1) P  Em  = lim P  Ek 
n→+∞
m∈N k=0
   n 
 \  \ 
(2) P  Em  = lim P  Ek 
n→+∞
m∈N k=0

Exemple 9. Le jeu de Pile ou Face. On lance une pièce parfaitement équilibrée à plusieurs
reprises et on cherche la probabilité que la pièce montre Face à tous les lancers.

1.) On fait N lancers.


L’univers Ω est {P, F}N et on le munit de la tribu discrète.
La probabilité choisie est la probabilité uniforme (la pièce est parfaitement équilibrée).
Appelons A l’évènement :« la pièce montre Face à tous les lancers. »
22.4 Indépendance et conditionnement  9

Cet événement correspond à l’événement élémentaire {(F, F, . . . , F)} et est donc réalisé
1
avec probabilité N .
2
2.) On suppose que le nombre de lancers est infini et qu’ils sont indépendants.
Un résultat est une suite formée d’éléments de {P, F}.

L’univers Ω est donc {P, F}N : il n’est pas dénombrable.
On admettra qu’on peut le munir d’une tribu A et que « le n-ème lancer donne Face »
est un évènement An de T . Comme le n-ème lancer donne P ou F et que la pièce est symé-
trique, on admet aussi qu’il existe une probabilité P définie sur T de telle sorte que :
1
∀n ∈ N∗ , P(An ) = .
2
L’événement
\ « la pièce montre Face à tous les lancers » correspond à l’évènement
E= An .
n∈N∗
D’après le théorème de la limite monotone,
 n 
\ 
P(E) = lim P  Ak  .
n→+∞
k=1
Comme les lancers sont indépendants, on a :
n !n
\ 1 1 1 1
P( Ak ) = × × . . . × =
k=1
2 2 2 2
1
de sorte que P(E) = lim = 0.
n→+∞ 2n
Cela ne veut pas dire que E est l’événement impossible, puisque E , ∅ mais on dit
qu’il est quasi-impossible d’obtenir Face à tous les lancers.

Définition 6. Soit (Ω, T , P) un espace probabilisé.


(a) Un événement E est dit négligeable ou quasi-impossible si P(E) = 0 et E , ∅
(b) Un événement E est dit presque-sûr ou quasi-certain si P(E) = 1 et E , Ω.
(c) Si une propriété est vraie sur un ensemble de probabilité 1, on dit qu’elle est
presque-sûrement vraie (on note p.s-vraie).

22.4 Indépendance et conditionnement

22.4.1 Probabilités conditionnelles

La définition d’une probabilité conditionelle dans le cas des univers infinis est iden-
tique à celle donnée dans le cas des univers finis.
 Formule des probabilités composées
La formule des probabilités composées s’étend au cas des univers infinis : la formule
est identique à celle donnée dans le cas des univers finis.
 Formule des probabilités totales
La formule des probabilités totales se généralise au cas d’un système complet d’évé-
nements dénombrables.
10 

Formule des probabilités totales . Soit (Ai )i∈N∗ un système complet d’évènements tel
que : pour tout i ∈ N∗ , P(Ai ) > 0.
+∞
X
Alors pour tout évènement E, P(E) = PAi (E)P(Ai )
i=1

 Formule de Bayes générale


On peut énoncer une formule de Bayes généralisée.

Formule de Bayes . Soit (Ei )i∈I un système complet d’événements tel que pour tout
i ∈ I, P(Ei ) > 0. On a
PE (A)P(Ei )
PA (Ei ) = X i
PA (Ei )P(A)
i∈I

22.4.2 Indépendance

Définition 7. Soit (Ek )k∈N∗ une famille d’événements. Les événements de la famille
(Ek )k∈N∗ sont dit mutuellement indépendants si pour toute partie finie J de N∗ :
\ Y
P( E j ) = P(E j )
j∈J j∈J

Proposition 7. Si les événements E1 , . . . , En , . . . sont mutuellement indépendants alors


Ẽ1 , . . . , Ẽn , . . . sont mutuellement indépendants où Ẽ j désigne E j ou son complémen-
taire E j

22.5 Variables aléatoires discrètes

Définition 8. Soit (Ω, A) un espace probabilisable et X : Ω → R. On dit que X est une


variable aléatoire réelle sur (Ω, A) si :

......................................................

Remarque 5. Si Ω est muni de la tribu discrète alors toute application X : Ω → R est une
variable aléatoire réelle.

Proposition 8. Soit (Ω, A) un espace probabilisable et X une application de Ω dans R


telle que X(Ω) est fini ou dénombrable.
Si, pour tout x ∈ X(Ω), [X = x] ∈ A alors X est une variable aléatoire réelle discrète.
22.5 Variables aléatoires discrètes  11

Définition 9. Une variable aléatoire réelle discrète est une variable aléatoire réelle
dont l’image X(Ω) est . . . . . . . . . . . . . . . . . . . . . . . . . . .

Soit (Ω, A) un espace probabilisable et X une variable aléatoire discrète sur Ω.


— La famille ([X = x]) x∈X(Ω) est un . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . appelé

.................................................................................................

— La tribu engendrée par ce système complet d’èvènements s’appelle

............................

C’est la plus petite tribu sur Ω pour laquelle X est une variable aléatoire sur Ω : elle
constitue l’information apportée par X. On la note AX .

22.5.1 Loi d’une variable aléatoire

La définition de la loi d’une variable aléatoire vue dans le cas des variables aléatoires
finies s’étend au cas des variables aléatoires discrètes infinies.

Définition 10. Soit (Ω, A, P) un espace probabilisé et X une vard sur Ω.


On appelle loi de la variable aléatoire X (ou loi de X) l’application
P̂X : X(Ω) → [0, 1]
x 7→ P([X = x])

Exemple 10. On lance une infinité de fois une pièce qui donne Pile avec probabilté p ∈]0, 1[
et on note X la variable aléatoire égale au nombre de lancers nécessaires pour obtenir le
premier Pile. Alors

X(Ω) = . . . . . . . . . . . . . . . . . . . . . . . . . . . et pour tout k ∈ N∗ , P(X = k) = . . . . . . . . . . . . . . . . . . . . . . . . . . .

Exemple 11. Une urne contient des boules blanches en proportion p et des boules noires.
On fait des tirages successifs avec remise d’une boule de l’urne. On note Y la v.a.r égale au
nombre de tirages nécessaires pour obtenir la première boule blanche. Alors

Y(Ω) = . . . . . . . . . . . . . . . . . . . . . . . . . . . et pour tout k ∈ N∗ , P(Y = k) = . . . . . . . . . . . . . . . . . . . . . . . . . . .

Remarque 6. Les deux exemples précédents montrent que . . . . . . . . . . . . . . . . . . . . . . . . . . .

................................................................................................
12 

Proposition 9. Si X est une variable aléatoire discrète alors


X
P([X = x]) = . . . . . . . . . . . . . . . . . . . . . . . . . . .
x∈X(Ω)

Récproquement,
X si (a j ) j∈J est une famille finie ou dénombrable de nombres positifs telle
que a j = 1 alors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
j∈J

+∞
4 X
Exemple 12. Pour tout n ∈ N∗ on pose an = . Vérifier que ak = 1
n(n + 1)(n + 2) k=0

22.5.2 Fonction de répartition

 Fonction de répartition.
La définition de la fonction de répartition d’une variable aléatoire X est indépendante
de son type. Qu’elle soit discrète ou non, elle est définie par
F X (x) = P(X ≤ x), pour tout réel x.

Théorème . L’application F X est . . . . . . . . . . . . . . . . . . . . . . . . . . . sur R, elle possède une li-


mite à gauche et une limite à droite en tout point de R :
lim
x→x
F X (t) = . . . . . . . . . . . . . . . . . . . . . . . . . . . lim
x→x
F X (t) = . . . . . . . . . . . . . . . . . . . . . . . . . . .
0 0
x<x0 x>x0

Elle est continue à droite et continue en tout point de R\X(Ω).


La fonction F X possède des limites en ±∞ :
lim F X (t) = . . . . . . . . . . . . . . . . . . . . . . . . . . . , lim F X (t) = . . . . . . . . . . . . . . . . . . . . . . . . . . .
t→−∞ t→+∞

Proposition 10. Deux variables X et Y ayant même fonction de répartition suivent la


même loi. On dit que la fonction de répartition caractérise la loi.

Proposition 11. Soit X une variable aléatoire réelle discrète.


Pour tout x ∈ R
X
F X (x) = P([X = t])
t∈X(Ω)
t≤x

Proposition 12. Soit X une variable aléatoire réelle discrète.


La fonction de répartition permet de déterminer la loi de X : pour tout x ∈ X(Ω)
P([X = x]) = . . . . . . . . . . . . . . . . . . . . . . . . . . .
où . . . . . . . . . . . . . . . . . . . . . . . . . . . et . . . . . . . . . . . . . . . . . . . . . . . . . . .
22.6 Moments d’une variable aléatoire. Espérance et variance.  13

22.5.3 Transformation d’une variable aléatoire

Théorème . Soit X une variable aléatoire discrète et g : X(Ω) → R une application.


Alors Y = g(X) est une variable aléatoire discrète sur Ω.

Proposition 13. Soit X une variable aléatoire discrète et g : X(Ω) → R une application.
La loi de Y = g(X) est donnée par
X
P([Y = y]) = P([X = x]).
x∈X(Ω)
g(x)=y

Exercice 3. On considère une variable aléatoire X prenant ses valeurs dans N∗ telle que
λ
P(X = k) = pour tout k ∈ N∗ .
k(k + 1)(k + 2)
(1) Déterminer λ.
(2) Montrer que Y = X 2 − 4X + 4 est une variable aléatoire discrète puis donner sa loi.

22.6 Moments d’une variable aléatoire. Espérance et variance.

22.6.1 Espérance

La définition de l’espérance d’une variable aléatoire s’étend au cas des variables aléa-
toires discrètes infinies en remplaçant les sommes finies par des sommes infinies sous ré-
serve de convergence absolue.

Définition 11. Soit X une variable aléatoire discrète sur un espace probabilisé (Ω, A, P).
X
On dit que X admet une espérance si la série xP(X = x) converge absolument et
x∈X(Ω)
dans ce cas, on appelle espérance de X la somme encore notée E(X) de cette série
X
E(X) = xP(X = x)
x∈X(Ω)

Exemple 13. Soit X une variable aléatoire telle que X(Ω) = N∗ de loi donnée par P(X =
1 X 1
n) = . Alors X n’admet pas d’espérance puisque la série diverge.
n(n + 1) n≥1
n+1

Exercice 4. Soit X une variable aléatoire prenant


X ses valeurs dans N. Montrer que X
admet une espérance si et seulement si la série P(X ≥ n) converge.
n≥0

Exercice 5. Soit λ ∈ R, p ∈]0, 1[ et X une variable aléatoire prenant ses valeurs dans N∗
telle que ∀n ∈ N∗ , P(X = n) = nλpn . Déterminer λ et calculer E(X).
14 

Remarque 7. (a) La convergence absolue est indispensable pour l’existence de l’espérance.


X
(b) Si X(Ω) = Z alors X admet une espérance si et seulement si les séries nP(X = −n)
X n≥0
et nP(X = n) convergent.
n≥0

 Linéarité et positivité de l’espérance (HP)


Les propriétés de linéarité et de positivité de l’espérance restent valables dans le cas
des variables aléatoires discrètes infinies.

Théorème . Soient X, Y deux variables aléatoires discrètes admettant une espérance.


(1) Si X est positive alors . . . . . . . . . . . . . . . . . . . . . . . . . . . .

(2) Pour tout λ ∈ R, λX + Y est une variable aléatoire admettant une espérance et

............................

(3) Si X ≤ Y alors . . . . . . . . . . . . . . . . . . . . . . . . . . .

 Inégalité de Markov.
L’inégalité ci-dessous, appelée inégalité de Markov 1 donne un majorant de la proba-
bilité qu’une variable aléatoire à valeurs positives soit supérieure ou égale à une constante
positive.

Inégalité de Markov . Soit X une variable aléatoire positive sur un espace probabilisé
(Ω, A, P) admettant une espérance. Alors pour tout réel λ > 0 :
...........................

22.6.2 Théorème de transfert

Le théorème de transfert vu dans le cadre des variables aléatoires finies s’étend au cas
des variables aléatoires infinies en remplaçant les sommes finies par des sommes infinies
sous réserve de convergence absolue.

Théorème de transfert . Soit X une variable aléatoire discrète sur un espace probabi-
lisé (Ω, A, P).
Xvariable aléatoire Y = g(X) admet une espérance si et seulement si la série
La
g(x)P(X = x) converge absolument et dans ce cas
x∈X(Ω)
X
E(g(X)) = g(x)P(X = x)
x∈X(Ω)

1. Markov Andrei Andreievitch, né en 1856 et mort en 1922. Elève de Chebyshev (à Saint-Pétersbourg),


il fournit une preuve rigoureuse du théorème de la limite centrée (commencée par Chebyshev). Il contribua à
l’étude des processus aléatoires en introduisant le concept de dépendance dans une suite de variables aléatoires
(chaînes de Markov). Ses travaux ont eu une grande influence sur le développement des probabilités comme
science mathématique exacte.
22.6 Moments d’une variable aléatoire. Espérance et variance.  15

Théorème . Soient X une variable aléatoire discrète sur un espace probabilisé


(Ω, A, P) et a et b deux réels.
Si X admet une espérance alors aX + b est une variable aléatoire admettant une espé-
rance et E(aX + b) = aE(X) + E(b).

Exemple 14. Soit X une variable aléatoire de Poisson de paramètre 3. Etudier l’espérance
1
si elle existe de Y = .
1+X

Définition 12. On dit qu’une variable aléatoire X admet un moment d’ordre r ∈ N si la


variable X r admet une espérance.
On note alors mr (X) = E(X r ).

Remarque 8. (1) Une variable aléatoire admet toujours un moment d’ordre 0.


(2) L’existence du moment d’ordre 1 revient à celle de l’espérance.
(3) Une variable aléatoire finie admet des moments de tout ordre.

Proposition 14. Un variable aléatoire discrète admettant un moment d’ordre r ∈ N


admet un moment à tous les ordres inférieurs à r.

Exemple 15. Soit X une variable aléatoire admettant un moment d’ordre k ∈ N∗ et α un


réel strictement positif. Alors grâce à l’inégalité de Markov,
P(|X| ≥ α) = . . . . . . . . . . . . . . . . . . . . . . . . . . .

22.6.3 Variance

Définition 13. Soit X une variable aléatoire discrète admettant un moment d’ordre 2.
La variable Y = X − E(X) admet aussi un moment d’ordre 2 appelé variance de X et
noté V(X) :
V(X) = . . . . . . . . . . . . . . . . . . . . . . . . . . .

Formule de Koenig-Huygens . Soit X une variable aléatoire discrète admettant un


moment d’ordre 2. La variance est donnée par
V(X) = E(X 2 ) − (E(X))2 .

Remarque 9. Pour des lois faisant intervenir des factorielles ou des coefficients binômiaux,
il est parfois très pratique de calculer la variance en employant la formule
V(X) = E(X(X − 1) + E(X) − E(X)2
16 

Définition 14. Soit X une variable aléatoire admettant un moment d’ordre 2. On appelle
écart-type de la variable X la racine carrée de la variance. Ce nombre est noté σ(X) :
σ(X) = . . . . . . . . . . . . . . . . . . . . . . . . . . .

Si E(X) = 0 et σ(X) = 1 on dit que la variable aléatoire X est . . . . . . . . . . . . . . . . . . . . . . . . . . .

Proposition 15. Soit X une variable aléatoire admettant une variance non nulle. La
variable aléatoire Y = . . . . . . . . . . . . . . . . . . . . . . . . . . . est la variable aléatoire centrée
réduite dite associée à X.

Théorème . Soient X une variable aléatoire discrète sur un espace probabilisé


(Ω, A, P) et a et b deux réels.
Si X admet une variance alors aX + b est une variable aléatoire admettant une variance
et V(aX + b) = a2 V(X).

Le résultat ci-dessous connu sous le nom d’inégalité de Bienaymé 2 -Cheyshev 3 sera


très utile dans les questions de convergences pour établir des estimations.

Inégalité de Bienaymé-Chebychev . Soit X une variable aléatoire admettant un mo-


ment d’ordre 2. On pose µ = E(X) et σ = σ(X). Alors
∀ε > 0, P(|X − µ| ≥ ε) ≤ . . . . . . . . . . . . . . . . . . . . . . . . . . .

2. Bienaymé Irénée Jules, 1796-1878. Polytechnicien, occupe en 1836 le poste d’inspecteur général des
Finances, qu’il perd pour des raisons politiques (révolution de 1848). Bienaymé se spécialise en statistique en
appliquant la théorie des probabilités aux calculs financiers et aux problèmes démographiques. Il obtient une
chaire de probabilités à la Sorbonne qui sera donnée à Lamé en 1850 et la même année, il réintègre sa charge
d’inspecteur général des Finances. Disciple de Pierre Simon de Laplace, il défend dans différents mémoires les
idées de celui en s’opposant aux points de vues de Poisson et de Cauchy. En statistique et probabilités, on lui doit
en particulier des compléments sur la méthode des moindres carrés et prouve quelques années avant Chebychev,
l’inégalité de Bienaymé-Chebyshev utilisée pour la preuve (incomplète) du théorème de la limite centrée, énoncé
auparavant par de Moivre puis Laplace et finalisée par Markov. Bienaymé entra à l’Académie des sciences en 1852
et fut un des membres fondateurs de la société mathématique de France (1872).
3. Chebyshev Pafnouty Lvovitch, 1821-1894. né le 16 mai 1821 à Okatovo, dans l’ouest de la Russie, est
un mathématicien russe. Issu d’une famille de militaires, riche et cultivée, il est d’abord éduqué chez ses parents.
Il reçoit alors de très bons enseignements en mathématiques, mais aussi en français. Son enfance est marquée
par un handicap (il a une jambe plus longue que l’autre) qui l’empêche de pratiquer certaines activités, et aussi
d’envisager une carrière militaire. En 1837, il entre à l’université de Moscou, où il apprend les mathématiques sous
la direction de Brashman. Alors qu’il commence à obtenir ses premiers résultats, sa situation financière change
dramatiquement en 1841 quand une famine frappe durement la Russie. Ses parents doivent quitter Moscou et ne
peuvent plus subvenir à ses besoins. Tchebychev persiste à continuer ses études. Il soutient sa thèse en 1846, où
il poursuit le programme de Bernoulli et de Poisson consistant à donner un cadre théorique aux théorèmes limites
des probabilités. En 1847, il devient professeur à Saint-Petersbourg. Tchebychev est célèbre pour ses travaux en
probabilités et en arithmétique. En 1850, il démontre le postulat de Bertrand, à savoir qu’il existe toujours un
nombre premier compris entre n et 2n, dès que n > 2. Il étudie également le nombre π(n) de premiers inférieurs à
n. Confortant une conjecture de Gauss, il obtient que si π(n)nln n admet une limite quand n tend vers l’infini, alors
cette limite est nécessairement 1. Il aime combiner les aspects théoriques et appliquées des mathématiques et est
très habile de ses mains : il a conçu plusieurs machines arithmétiques et mécaniques ( à voir sur http ://[Link]).
C’est dans un article consacré à la mécanique qu’il a introduit les polynômes dits de Tchebychev. A la suite de
cela, il est le premier à ébaucher une théorie des polynômes orthogonaux. L’orthographe de Tchebychev : on peut
écrire Chebyshev, Tchebicheff, Chebychov sans se tromper... ([Link])
22.7 Lois discrètes infinies  17

Exercice 6. On considère une variable aléatoire X suivant une loi de Poisson de para-
λ 9
mètre λ > 0. Démontrer que P(X ≥ λ + 1) ≤ λ et P X ≤ ≤ .
3 4λ

22.7 Lois discrètes infinies

22.7.1 Loi géométrique

On lance une infinité de fois une pièce donnant Pile avec probabilité p ∈]0, 1[ et Face
avec probabilité 1 − p.
Les lancers étant supposés indépendants.
On note T le rang d’apparition du premier Pile.
On posera T = 0 si Pile n’apparaît jamais.
(1) Déterminer T (Ω).
(2) Etablir la loi de T .
(3) Calculer E(T ) et V(T ).

Définition 15. Soit p ∈]0, 1[. Une variable aléatoire X telle que X(Ω) = . . . . . . et pour
tout k ∈ X(Ω)
P(X = k) = . . .
est appelée variable aléatoire géométrique de paramètre p. On dit encore que X suit
une loi géométrique de paramètre p et on note X ,→ G(p).

Proposition 16. Soit p ∈]0, 1[ et X ,→ G(p).


E(X) = . . . . . . , V(X) = . . . . . .

Exemple. Une urne contient N boules blanches et M noires (avec N ≥ 1 et M ≥ 1).


On tire des boules une par une avec remise jusqu’à apparition d’une boule noire.
Quelle est la proabilité qu’il faille exactement n tirages ?
Quelle est la proabilité qu’il faille au moins k tirages ? (n ∈ N∗ et k ∈ N∗ )

22.7.2 Loi de Poisson comme limite de lois binômiales

Soit λ un réel strictement positif et (Xn )n≥1 une suite de variables aléatoires binômiales
telles que pour tout n ∈ N∗ , Xn ,→ B(n, λn ).
Soit n ∈ N∗ . On étend la loi de Xn de la façon suivante : pour tout j ∈ N,
( n λ j λ n− j
P(Xn = j) = j ( n ) (1 − n ) si j ∈ ~0, n,
0 si j ≥ n + 1.
(1) Montrer que pour tout j ∈ N, la suite (P([Xn = j]))n≥1 admet une limite π( j) à détermi-
ner.
18 

(2) Vérifier que π est la loi d’une variable aléatoire.


(3) Soit X une telle variable aléatoire. Etudier l’espérance et la variance de X.

Définition 16. Soit λ un réel strictement positif. Une variable aléatoire X telle que
X(Ω) = . . . . . . et pour tout k ∈ X(Ω),
P(X = k) = . . .
est appelée variable aléatoire de Poisson de paramètre λ. On dit encore que X suit
une loi de Poisson de paramètre λ et on note X ,→ P(λ).

Proposition 17. Soit λ un réel strictement positif et X ,→ P(λ).


E(X) = . . . . . . , V(X) = . . . . . .

Conséquence : le résultat prouvé en (1) est très utile pour les calculs numériques. En effet,
lorsqu’une loi binômiale a un paramètre n grand et un paramètre p petit, ce résultat permet
de remplacer la loi binômiale par la loi de Poisson de paramètre λ = np. On constatera
en informatique que cette approximation est assez satisfaisante. On pourra faire les calculs
avec l’exemple suivant : pour effectuer un contrôle de qualité, on procède au tirage au
hasard de 20 objets dans une fabrication industrielle. Supposons savoir que 5% des objets
de cette fabrication sont défectueux. On suppose que le nombre total d’objets fabriqués est
très grand. On fait l’hypothèse que le nombre X d’objets défectueux prélevés suit une loi
binômiale de paramètres n = 20 et p = 0, 05.

k P(X = k) π(k)
0 0, 358 0, 368
1 0, 377 0, 368
2 0, 189 0, 184
3 0, 060 0, 061
4 0, 013 0, 015
Table 22.1 Comparaison entre la loi binômiale et la loi de Poisson pour les premières valeurs de k avec
n = 20, p = 0.05 et λ = np = 1.

Exemple. On considère l’expérience qui consiste à mesurer le nombre de particules α


émises en l’espace d’une seconde par un gramme de matière radioactive (uranium, par
exemple).
Des expériences ont montré qu’en moyenne le nombre de particules α émises est 3, 2.
On demande une bonne approximation pour la probabilité qu’au plus deux particules
α soient enregistrées.

22.8 Exercices.

 Généralités.

Exercice 7. Soit Ω = {1, 2, 3, 4, 5}. Déterminer la tribu engendrée par A = {{1, 2}, {2, 4}}.
22.8 Exercices.  19

Exercice 8. Ecrire à l’aide des opérations ensemblistes et des évènements A1 , A2 , . . . An


suivants les évènements suivants :
(a) tous les évènements Ak se réalisent.
(b) une infinité d’évènements Ak se réalisent
(c) un nombre fini d’évènements Ak se réalisent
(d) une infinité d’évènements Ak ne se réalisent pas
(e) à partir d’un certain rang, tous les évènements Ak se réalisent

 Calculs de probabilités par σ-additivié, limite monotone,. . . .

Exercice 9. On lance deux dés jusqu’à ce qu’une somme de 5 ou 7 apparaisse.


(a) Soit En l’évènement " une somme de 5 apparait au n-ème double jet et sur les n − 1
premiers jets ni la somme de 5 ni celle de 7 apparait". Calculer P(En ).
(b) Quelle est la probabilité qu’on s’arrête sur une somme de 5 ?
(c) Quelle est la probabilité qu’on s’arrête sur une somme de 7 ?
(d) Quelle est la probabilité que le jeu ne s’arrête jamais ?

Exercice 10. Un joueur joue au « craps » comme suit : il lance deux dés réguliers.
— Si la somme des faces obtenues est 2, 3, ou 12, il perd.
— Si la somme des faces est 7 ou 11, il gagne.
— Dans les autres cas, il continue à lancer les dés jusqu’à ce que la somme des
faces soit égale au premier résultat qu’il a obtenu ou qu’ elle soit égale à 7.
— Si c’est 7, il perd.
— Si c’est son résultat initial, il gagne.
On cherche la probabilité de gagner à ce jeu.
On note E l’événement : « le joueur gagne » et pour i ∈ ~2, 12, l’événement Ei
est :« la somme obtenue initialement est i et le joueur finit par gagner. »

(1) Exprimer l’événement E en fonction des événements Ei , 2 ≤ i ≤ 12 et en déduire


P(E) en fonction des P(Ei ), 2 ≤ i ≤ 12.
(2) Donner les probabilités P(E2 ), P(E3 ), P(E12 ).
(3) Calculer les probabilités P(E7 ) et P(E11 ).
(4) On cherche maintenant la probabilité P(E4 ).
(a) Pour n ∈ N tel que n ≥ 2, on note Fn l’événement : « la somme obtenue
initialement est 4 et le joueur gagne au n-ème coup. »
Exprimer E4 en fonction des événements Fn , n ∈ N, n ≥ 2.
(b) Pour tout n ∈ N∗ , calculer P(Fn ). En déduire P(E4 ).
(5) Par un raisonnement analogue, calculer les probabilités P(E5 ), P(E6 ), P(E8 ), P(E9 ),
et P(E10 ).
(6) Conclure.
20 

Exercice 11. (1) Montrer que pour tout x ∈ R+ , on a 1 − x ≤ e−x .


(2) Soit (Ak )k∈N∗ une suite d’événements. On considère les événements F : « une infinité
d’événements Ak se réalisent » et G : « une infinité d’événements Ak se réalisent à
la suite. »
Exprimer les événements F et G en fonction des événements A1 , A2 , . . . , An , . . ..
On dispose d’une urne vide au départ.
Le premier jour, une personne met une boule numérotée 1 dans l’urne, la tire, note
son numéro et la remet dans l’urne ( !).
Ensuite, à chaque nouvelle journée, elle ajoute une boule qui porte le numéro du
jour considéré, elle tire alors une boule au hasard, note le numéro de cette boule et la
remet dans l’urne.
Le processus se poursuit indéfiniment . . .

(3) (a) Soient ` ∈ N∗ et E1 , E2 , . . . , E` une famille de ` événements indépendants.


`
P
− P(Ei )
.
T 
Montrer que l’on a P Ei ≤ e i=1
1≤i≤`

où E est l’événement contraire de l’événement E.


(b) On note Ak l’événement « la boule numérotée 10 sort lors du kème tirage. » Que
vaut la probabilité de Ak ?
(c) Quelle est la probabilité que la boule 10 sorte au moins une fois à partir du
nème tirage, où n est un entier positif fixé ?
(d) Quelle est la probabilité que la boule numérotée 10 sorte une infinité de fois
(pas nécessairement à la suite) ?
(e) Calculer la probabilité que le 10 sorte une infinité de fois à la suite.
(4) On suppose cette fois que la personne remplit l’urne de sorte qu’il y ait dans l’urne
n2 boules, numérotées de 1 à n2 , le nème jour (elle met donc une boule numérotée
1 le premier jour, trois boules numérotées 2, 3, 4 le deuxième jour, cinq boules le
troisième, . . .). Comme à la question précédente, elle tire alors une boule, note son
numéro et la remet immédiatement dans l’urne.
(a) Soient ` ∈ N∗ et E1 , E2 , . . . , E` une famille de ` événements . Montrer que l’on
S P`
a:P Ei ) ≤ P(Ei ).
1≤i≤` i=1
(b) Quelle est la probabilité que le nombre 10 sorte une infinité de fois ?

 Indépendance et conditionnement.

Exercice 12. Une puce se déplace par sauts successifs sur les sommets A, B, C et le
centre 0 de gravité d’un triangle équilatéral.
A t = 0, elle est en O puis elle saute en l’un des points A, B ou C de façon équipro-
bable.
Par la suite, elle saute du point où elle se trouve en l’un des autres points de façon
équiprobable.
(a) Calculer la probabilité qu’elle revienne en O pour la première fois au temps t = n.
(b) Calculer la probabilité que la puce revienne en O.
22.8 Exercices.  21

Exercice 13. Une puce évolue sur 3 cases C1 , C2 , C3 .


A t = 0, elle est en C1 .
Puis, si, au temps t = k elle est en C1 ou C2 , au temps t = k + 1, elle saute sur l’une
des deux autres cases de façon équiprobable.
Si, au temps t = k, elle est en C3 , elle y reste définitivement.
On appelle En l’évènement « la puce est en C1 à t = n », Fn l’évènement « la puce
est en C2 à t = n » et Gn l’évènement « la puce est en C3 à t = n. »
On pose un = P(En ), vn = P(Fn ), wn = P(Gn ).
(a) Etablir des relations de récurrence entre un+1 , vn+1 , wn+1 et un , vn , wn .
(b) Calculer wn en fonction de n et déterminer lim wn .

Exercice 14. On effectue une suite indéfinie de lancers d’une pièce équilibrée. Pour tout
n ∈ N∗ , on désigne par pn la probabilité qu’au cours des n premiers lancers le résultat
Pile n’ait pas été obtenu trois fois de suite.

(1) Calculer p1 , p2 et p3 .
(2) Montrer que pour tout entier n supérieur ou égal à 3, on a :
1 1 1
pn = pn−1 + pn−2 + pn−3
2 4 8
(3) Proposer une méthode pour calculer pn en fonction de n.

Exercice 15. On lance n dés non pipés.


On note An l’évènement " la somme des numéros amenés est pair."
Montrer que la suite (P(An ))n∈N∗ est constante.

Exercice 16. Une urne U1 contient 1 boule noire et 5 boules blanches.


Une urne U2 contient 4 boules noires et 2 blanches.
On effectue dans ces urnes une suite de tirages d’une boule de la manière suivante :
Le premier tirage se fait au hasard dans l’une ou l’autre des deux urnes.
Pour n ∈ N∗ ,
— si le n-eme tirage donne une boule blanche alors le n + 1-eme tirage se fera dans
la même urne que le n-ème tirage ;
— si le n-ème tirage donne une boule noire, on change d’urne pour effectuer le
n + 1-ème tirage.
Chaque boule tirée est aussitôt remise dans l’urne d’où elle provient.
On note pn la probabilité d’effectuer le n-eme tirage dans l’urne U1 et qn la proba-
bilité de tirer une boule blanche au n-ème tirage.
(a) Déterminer pn .
(b) Déterminer qn .
22 

Exercice 17. Trois joueurs A, B, C participent à un tournoi. Les joueurs A et B jouent


en premier, le vainqueur joue ensuite contre C, puis le vainqueur joue contre le perdant
du match précédent, et ainsi de suite. Est déclaré gagnant celui qui aura remporté deux
jeux consécutifs.
1
On suppose que les joueurs ont une probabilité de remporter un match et que les
2
matchs sont indépendants.
Quelle est la probabilité que chacun des joueurs soit gagnant ?

Exercice 18. On désigne par n un entier naturel tel que n ≥ 2.


Une urne contient une boule blanche et n − 1 boules noires.
Trois joueurs A, B et C tirent à tour de rôle une boule de cette urne dans l’ordre
suivant : A joue en premier, B joue après A, C joue après B, puis A joue après C etc.
Le gagnant est le premier des trois qui tire la boule blanche.
On note, pour n ∈ N,
— An l’événement « A gagne au ne tirage »
— Bn l’événement « B gagne au ne tirage »
— Cn l’événement « C gagne au ne tirage »
On note A (resp B, C) l’événement « le joueur A (resp. B, C) est le gagnant . »
(1) On suppose dans cette question que les tirages se font avec remise de la boule tirée.
(a) Pour tout k ∈ N, calculer P(A3k+1 ), P(B3k+2 ), P(C3k+3 ).
(b) En déduire P(A), P(B) et P(C). Vérifier que P(A) > P(B) > P(C).
(2) On suppose dans cette question que les tirages se font sans remise de la boule tirée.
(a) Montrer que pour tout entier k tel que 3k + 3 ≤ n,
1
P(A3k+1 ) = P(B3k+2 ) = P(C3k+3 ) = .
n
(b) On suppose que n = 3m + 1 où m ∈ N. Montrer que
m+1 m
P(A) = , P(B) = P(C) = .
3m + 1 3m + 1
(c) On suppose que n = 3m + 2 où m ∈ N. Montrer que
m+1 m
P(A) = P(B) = , P(C) = .
3m + 2 3m + 2
(d) On suppose que n = 3m + 3 où m ∈ N. Montrer que
1
P(A) = P(B) = P(C) = .
3

 Variables aléatoires discrètes.

Exercice 19. Un commerçant estime que la demande d’un certain produit est une va-
riable aléatoire X telle que

pk
∀k ∈ N, P(X = k) =
(1 + p)k+1
où p est le prix de la campagne publicitaire pour ce produit.
22.8 Exercices.  23

(1) Vérifier que la loi de la variable aléatoire X est bien une loi de probabilité.
(2) Montrer que X admet une espérance et la calculer.
(3) Montrer que X admet une variance et la calculer.
(4) Le commerçant prévoit un stock de s articles de ce produit. Quelle est la probabilité
de rupture de stock ?

Exercice 20. Un candidat se présente chaque année à trois concours indépendants. Il


1
a une probabilité de réussite à chaque concours de . On note X le nombre d’années
3
nécessaires pour intégrer. Etudier la loi et l’espérance de X.

Exercice 21. On lance une pièce honnête jusqu’à obtenir face pour la deuxième fois.
Soit X le nombre de lancers nécessaires. Etudier la loi et l’espérance de X.
Quelle est la probabilité que le nombre de lancers nécessaires soit pair ?

Exercice 22. On dispose de N urnes dans lesquelles on lance des balles l’une après
l’autre. On s’arrête lorsque une balle tombe dans l’urne numérotée 1.
Quelle est la probabilité que n lancers soient nécessaires ?
Quelle est la probabilité que plus de n lancers soient nécessaires ?

Exercice 23. Le nombre X d’oeufs pondus par une maman tortue au cours d’une ponte
est une variable aléatoire suivant une loi de Poisson de paramètre λ > 0.
Un œuf a la probabilité p d’éclore.
On note Y la variable aléatoire égale au nombre de bébés tortues au cours d’une
ponte.

(1) Rappeler pour tout n ∈ N, l’expression de P(X = n).


(2) (a) Quel est l’ensemble Y(Ω) des valeurs possibles pour la variable Y ?
(b) Soit n ∈ N et k ∈ N. Calculer P[X=n] (Y = k). (On pourra distinguer les cas
k ≤ n et k > n.)
(3) A l’aide de la formule des probabilités totales, calculer, pour tout k ∈ N, la proba-
bilité P(Y = k).
(4) En déduire l’espérance et la variance de Y. N

Exercice 24. Des objets en nombre illimité sont placés successivement dans des cases,
en nombre fini N, dont la capacité est illimitée. On suppose que ces cases sont vides
au départ et qu’ à chaque fois qu’un objet est placé, la probabilité qu’il le soit dans une
1
case donnée est .
N
On suppose N = 3 et on effectue les placements comme indiqué ci-dessus.
24 

On note :
— Y le nombre d’objets placés lorsque pour la première fois deux cases exactement
sont occupées par au moins un objet,
— Z le nombre d’objets placés lorsque pour la première fois les trois cases
contiennent chacune au moins un objet
On admet que Y et Z sont deux variables aléatoires.

(1) (a) Que vaut P(Y = 1) ?


(b) Soit k un entier supérieur ou égal à 2.
— De combien de façons peut on placer k objets distincts dans 3 cases
distinctes ?
— De combien de façons peut on placer les k − 1 premiers objets dans une
même case et le k-ème objet dans une autre case ?
(c) En déduire P(Y = k) pour k ≥ 2.
(2) Soient l, k deux entiers naturels non nuls.
(a) Que vaut P[Y=k] (Z = l) lorsque k ≥ l ?
(b) Calculez P[Y=k] (Z = l) lorsque 2 ≤ k < l
(c) Que vaut P(Z = l) pour l ≤ 2 ?
(d) Pour l > 2, à l’aide de la formule des probabilités totales, montrez que
!l−1
2 2
P(Z = l) = − l−1
3 3
(3) Montrez que Z et Z 2 admettent une espérance que l’on déterminera. Calculez la
variance V(Z).

Vous aimerez peut-être aussi