0% ont trouvé ce document utile (0 vote)
18 vues24 pages

CORRIGES

Le document traite des probabilités liées à des expériences aléatoires, en particulier celles impliquant des lancers de pièces et de dés. Il présente des calculs de probabilités pour différents événements, ainsi que des conclusions sur les limites des probabilités lorsque n tend vers l'infini. Enfin, il aborde le calcul de l'espérance d'une variable aléatoire dans le contexte de l'arrêt après un certain nombre de lancers.

Transféré par

ismail
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • loi de maximum,
  • loi de probabilité de la trans…,
  • loi de probabilité de la distr…,
  • séries de variables aléatoires,
  • espérance de variables aléatoi…,
  • loi de probabilité de la fonct…,
  • espérance conditionnelle,
  • loi de probabilité de la fonct…,
  • loi de probabilité de la fonct…,
  • loi de probabilité de la convo…
0% ont trouvé ce document utile (0 vote)
18 vues24 pages

CORRIGES

Le document traite des probabilités liées à des expériences aléatoires, en particulier celles impliquant des lancers de pièces et de dés. Il présente des calculs de probabilités pour différents événements, ainsi que des conclusions sur les limites des probabilités lorsque n tend vers l'infini. Enfin, il aborde le calcul de l'espérance d'une variable aléatoire dans le contexte de l'arrêt après un certain nombre de lancers.

Transféré par

ismail
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • loi de maximum,
  • loi de probabilité de la trans…,
  • loi de probabilité de la distr…,
  • séries de variables aléatoires,
  • espérance de variables aléatoi…,
  • loi de probabilité de la fonct…,
  • espérance conditionnelle,
  • loi de probabilité de la fonct…,
  • loi de probabilité de la fonct…,
  • loi de probabilité de la convo…

• Par conséquent :

1 X 2
n
P(B) = 3
k
n
k=1
1 n(n + 1)(2n + 1)
=
n3 6
(n + 1)(2n + 1)
=
6n2
(n + 1)(2n + 1)
Conclusion : P(B) = .
6n2
3. Quelles sont les limites de ces deux probabilités quand n tend vers +∞ ?
Sans difficulté particulière, on remarque que :
1 1
lim P(A) = ; lim P(B) =
n→+∞ 3 n→+∞ 3

••◦◦ Exercice 9
Soit n ∈ N∗ . On considère une expérience aléatoire telle dont l’univers est J1; nK et on suppose qu’il existe
une probabilité P telle que :
∃λ ∈ R+ / ∀k ∈ J1; nK, P(J1; kK) = λk 2
Déterminer, pour tout k ∈ J1; nK, la probabilité de l’évènement {k}.
Remarquons déjà que P(J1; nK) = 1, d’où λn2 = 1.
Par conséquent :
1
λ= 2
n
Soit k ∈ J1; nK. On a :
• Si k = 1 :
1
P({1}) = P(J1; 1K) = λ12 = 2
n
• Si k ≥ 2 :
P({k}) = P(J1; kK) − P(J1; k − 1K)
= λk 2 − λ(k − 1)2
= λ(2k − 1)
2k − 1
=
n2
2k − 1
Conclusion : ∀k ∈ J1; nK, P({k}) = .
n2

•◦◦◦ Exercice 10
Pour chaque variable aléatoire ci-dessous, donner X(Ω).
1. X est le nombre de PILE obtenus en lançant quatre fois consécutives une pièce équilibrée.
X(Ω) = J0; 4K. ⋆Subtile...⋆
2. X est le minimum des nombres obtenus en lançant deux dés équilibrés. Nous verrons, dans le pro-
chain chapitre de probabili-
X(Ω) = J1; 6K. tés, que l’évènement "aucun
PILE n’apparaît" est de proba-
3. X est le rang du premier PILE pour une succession infinie de lancers de pièces et X prend la valeur bilité nulle.
0 si aucune PILE n’apparaît. En toute rigueur, l’énoncé
X(Ω) = N doit préciser la valeur que
prend X dans le cas où aucun
4. Pour tout n ∈ N∗ , Xn est le nombre de fois que l’on obtient 6 en lançant n fois un dé. PILE n’apparaît (l’∞-uplet
Xn (Ω) = J0; nK. (F, F, F, ..., ) est la seule issue
de cet évènement, qui est
donc non vide) ; même si
•◦◦◦ Exercice 11 l’évènement [X = 0] est de
probabilité nulle.
On considère la variable aléatoire X, dont la loi de probabilité est :
valeurs de X 1 5 8 10
probabilités 0,2 p q 0,1
Déterminer les valeurs de p et q, de sorte que l’espérance de X soit égale à 5, 6.
On doit avoir : X
P([X = x]) = 1 ; E(X) = 5, 6
x∈X(Ω)
Or :  X

 P([X = x]) = 1 

 p + q = 0, 7

 x∈X(Ω) ⇐⇒

 5p + 8q = 4, 4
E(X) = 5, 6

p = 0, 4
⇐⇒
q = 0, 3
Conclusion : p = 0, 4 et q = 0, 3.

••◦◦ Exercice 12
Soit p ∈]0; 1[. On lance une pièce donnant PILE avec la probabilité p jusqu’à obtenir le premier PILE ; et
dans tous les cas, on s’arrête après le cinquième lancer. Les lancers sont supposés indépendants.
On note X la variable aléatoire égale au nombre de lancers effectués.

Exercices du chapitre 12 - Page 10/33


1. Calcul préliminaire. Établir :
X
n−1
1 − nx n−1 + (n − 1)xn
∀n ∈ N∗ , ∀x ∈]0; 1[, kx k−1 =
(1 − x)2
k=1

X
n−1
Posons f : x 7−→ xk , définie sur ]0; 1[.
k=0
f étant une fonction polynomiale, elle est dérivable sur ]0; 1[.
X
n−1
Soit x ∈]0; 1[. Puisque f (x) = 1 + xk , on obtient, par linéarité de la dérivation :
k=1
X
n−1
f 0 (x) = kx k−1
k=1
1 − xn
Mais on sait aussi, puisque x ∈]0; 1[, que f (x) = . D’où, en dérivant sous cette forme :
1−x
−nx n−1 (1 − x) − (1 − xn )(−1)
f 0 (x) =
(1 − x)2
−nx n−1 + nx n + 1 − xn
=
(1 − x)2
1 − nx n−1 + (n − 1)xn
=
(1 − x)2
En égalant ces deux expressions, on obtient :
X
n−1
1 − nx n−1 + (n − 1)xn
kx k−1 =
(1 − x)2
k=1

X
n−1
1 − nx n−1 + (n − 1)xn
Conclusion : ∀n ∈ N∗ , ∀x ∈]0; 1[, kx k−1 = .
(1 − x)2
k=1

2. Donner X(Ω). Petit à petit...


Sans difficulté : X(Ω) = J1; 5K. En effet : Vous devez tous être en me-
• l’inclusion X(Ω) ⊂ J1; 5K est immédiate ; sure de donner X(Ω). En
• pour tout k ∈ J1; 5K, l’évènement [X = k] est non vide, car réalisé (par exemple) par l’issue comportant revanche, la justification de-
PILE au k-ième lancer et FACE éventuellement avant ce lancer. mande un travail de rédaction
et de justification non négli-
D’où l’inclusion J1; 5K ⊂ X(Ω). geable, qu’il ne doit pas être
3. Que vaut P([X = 1]) ? la priorité dans votre travail.
Notons, pour tout k ∈ J1; 4K, Pk l’évènement "obtenir PILE au k-ième lancer" er Fk = Pk .
• L’évènement [X = 1] est réalisé si, et seulement si, on obtient PILE au premier lancer.
Ainsi :
[X = 1] = P1
• D’où :
P([X = 1]) = P(P1 ) = p
4. Déterminer le loi de X.
• On a déjà : X(Ω) = J1; 5K et P([X = 1]) = p.
• Ensuite :
 Soit k ∈ J2; 4K.
⇝ L’évènement [X = k] est réalisé si, et seulement si, on obtient que des FACE jusqu’au k-ième
lancer, qui donne PILE.
Ainsi :  
\ 
k−1
 
[X = k] =  Fi  ∩ Pk
 
i=1
⇝ Par conséquent :
  
\ 
k−1 
  
P([X = k]) = P  Fi  ∩ Pk 
   par indépendance des lancers
 i=1 
Y k−1 
=  (1 − p) p
 
i=1
= (1 − p)k−1 p
 ⇝ L’évènement [X = 5] est réalisé si, et seulement si, on obtient le premier PILE au 5ème lancer
OU si l’on n’a obtenu aucun PILE.
Ainsi :    
[X = 5] = F1 ∩ F2 ∩ F3 ∩ F4 ∩ P5 ∪ F1 ∩ F2 ∩ F3 ∩ F4 ∩ F5
⇝ Par conséquent :
   
P([X = 5]) = P F1 ∩ F2 ∩ F3 ∩ F4 ∩ P5 ∪ F1 ∩ F2 ∩ F3 ∩ F4 ∩ F5 P5 ∩ F5 = ∅, donc F1 ∩ ... ∩ F4 ∩ P5 et F1 ∩ ... ∩ F5 sont incompatibles
= P(F1 ∩ F2 ∩ F3 ∩ F4 ∩ P5 ) + P(F1 ∩ F2 ∩ F3 ∩ F4 ∩ F5 ) par indépendance des lancers
= P(F1 ) × ... × P(F4 ) × P(P5 ) + P(F1 ) × ... × P(F5 )
= (1 − p)4 p + (1 − p)5 Petite remarque
On aurait pu raisonner autre-
= (1 − p)4 (p + 1 − p) ment en disant que [X = 5]
= (1 − p)4 est réalisé si, et seulement si,
aucun PILE n’a été obtenu à
l’issue du 4ème lancer.
Par conséquent :
[X = 5] = F1 ∩ ... ∩ F4
Exercices du chapitre 12 - Page 11/33
Conclusion : X(Ω) = J1; 5K ;
∀k ∈ J1; 4K, P([X = k]) = (1 − p)k−1 p ; P([X = 5]) = (1 − p)4 .

5. Calculer l’espérance de X.
X(Ω) = J1; 5K est fini, donc :
X
5
E(X) = kP([X = k])
k=1
X4
= k(1 − p)k−1 p + 5P([X = 5]) 8 Attention !
p , 0, donc 1 − p , 1 On doit décomposer la
k=1
somme, car il y a deux ex-
X4
pressions de P([X = k]) selon
= p k(1 − p)k−1 + 5(1 − p)4 d’après la question 1. que k = 5 ou k ∈ J1; 4K.
k=1
1 − 5(1 − p)4 + 4(1 − p)4
= p + 5(1 − p)4
(1 − (1 − p))2
1 − 5(1 − p)4 + 4(1 − p)5
= + 5(1 − p)4
p
1 − 5(1 − p) + 4(1 − p) + 5p(1 − p)4
4 5
=
 p 
1 + (1 − p)4 − 5 + 4(1 − p) + 5p
=
p
1 + (1 − p)4 (−1 + p)
=
p
1 − (1 − p)5
=
p

1 − (1 − p)5
Conclusion : E(X) = .
p

6. Reprendre l’exercice en considérant au plus n lancers, avec n ∈ N∗ .


• Dans ce cas, on a : X(Ω) = J1; nK.
• [X = 1] = P1 , donc P([X = 1]) = P(P1 ) = p
• Soit k ∈ J2; n − 1K. On a :  
\ 
k−1
 
[X = k] =  Fi  Pk
 
i=1
D’où :   
\ 
k−1 
  
P([X = k]) = 
P  Fi  ∩ Pk 
   par indépendance des lancers
 i=1 
Y k−1 

=  (1 − p) p
 
i=1
= (1 − p)k−1 p
• L’évènement [X = n] est réalisé si, et seulement si, on obtient le premier PILE au n-ième lancer OU si l’on
n’a obtenu aucun PILE.
Ainsi : n−1    n 
 \   \ 


[X = n] = 
 
Fi  ∩ Pn  ∪  Fi 

i=1 i=1
Par conséquent :
n−1    n 
 \   \ 
P([X = n]) = 

P  
 
 
Fi  ∩ Pn  ∪  Fi 

Pn ∩ Fn = ∅, donc il s’agit d’une union d’évènements incompatibles
n−1 i=1   i=1 
 \   \n 
= P  Fi  ∩ Pn  + P  Fi  par indépendance des lancers
i=1 i=1 Petite remarque
= (1 − p)n−1 p + (−p)n On aurait pu raisonner autre-
= (1 − p)n−1 (p + 1 − p) ment en disant que [X = n]
= (1 − p)n−1 est réalisé si, et seulement si,
aucun PILE n’a été obtenu à
l’issue du n − 1-ième lancer.
Par conséquent :
Conclusion : X(Ω) = J1; nK \
n−1
∀k ∈ J1; n − 1K, P([X = k]) = (1 − p)k−1 p ; P([X = n]) = (1 − p)n−1 . [X = n] = Fi
i=1

Exercices du chapitre 12 - Page 12/33


• X(Ω) = J1; nK est fini, donc :
X
n
E(X) = kP([X = k])
k=1 8 Attention !
X
n−1
On doit décomposer la
= k(1 − p)k−1 p + nP([X = n]) p , 0, donc 1 − p , 1 somme, car il y a deux ex-
k=1 pressions de P([X = k]) selon
X
n−1 que k = n ou k ∈ J1; n − 1K.
= p k(1 − p)k−1 + n(1 − p)n−1 d’après la question 1.
k=1
1 − n(1 − p)n−1 + (n − 1)(1 − p)n
= p + n(1 − p)n−1
(1 − (1 − p))2
1 − n(1 − p)n−1 + (n − 1)(1 − p)n
= + n(1 − p)n−1
p
1 − n(1 − p)n−1 + (n − 1)(1 − p)n + np(1 − p)n−1
=
 p 
1 + (1 − p)n−1 − n + (n − 1)(1 − p) + np
=
p
1 + (1 − p)n−1 (−1 + p)
=
p
1 − (1 − p)n
=
p

••◦◦ Exercice 13 - C’est faux !


Chacune des affirmations suivantes est fausse. Dans chaque cas, fournir un contre-exemple permettant
de l’infirmer.
1. Si X ne prend que deux valeurs opposées, alors nécessairement E(X) = 0.
Considérons la variable aléatoire X, sur un certain univers Ω, telle que X(Ω) = {−1; 1} ainsi que P([X = −1]) =
0, 1 et P([X = 1]) = 0, 9.
X ne prend que deux valeurs opposées, et pourtant E(X) = 0, 8 , 0.
2. Pour toute variable aléatoire X, on a E(X2 ) = E(X)2 .
D’après la formule de Koenig-Huygens, il suffit, pour fournir un contre-exemple, de trouver une variable
aléatoire telle que V(X) , 0.
Pour cela, il suffit de prendre une variable aléatoire non constante... Prenons la même variable aléatoire que
dans la question précédente.
On avait :
E(X) = 0, 8
Et, par théorème de transfert :
E(X2 ) = (−1)2 P([X = −1]) + 12 P([X = 1])
= 1

Par conséquent : E(X2 ) , E(X)2 .


3. Pour toute variable aléatoire X, les lois de X et X2 sont différentes. Petite remarque
En effet, il est possible de trouver une variable aléatoire X telle que X et X2 ont même loi. Exemples : Pour résumer, toute variable
• Les variables aléatoires constantes égales à 0 et constantes égale à 1 conviennent. aléatoire X telle que X(Ω) ⊂
• Toute variable aléatoire X telle que X(Ω) = {0; 1} convient. {0; 1} vérifie "X et X2 ont la
même loi".
4. Si X et Y ont même espérance et même variance, alors elles ont la même loi de probabilité.
Considérons les variables aléatoires X et Y définies par :
1
• X(Ω) = {−2; 2}, P([X = −2]) = P([X = 2]) =
2
3 5
• Y(Ω) = {−3; −1; 1; 3}, P([X = −3]) = P([X = 3]) = et P([X = −1]) = P([X = 1]) =
16 16
On a E(X) = E(Y) = 0 et V(X) = V(Y) = 4, pourtant X et Y n’ont pas la même loi.
Comment trouver de tels contre-exemples ?
• Prendre déjà des cas simples en imposant E(X) = 0. Ainsi, par la formule de Koenig-Huygens, V(X) =
E(X2 ) (que l’on obtient aisément par théorème de transfert).
• Une variable aléatoire symétrique a une espérance nulle... On en prend un avec deux valeurs pour X. On Pourquoi ?
trouve sa variance (ici 4). Si Y ne prend que deux va-
• Puis on prend une autre variable aléatoire Y qui prend ses valeurs "autour" de celles de X (pour espérer leurs opposées : soit elles
avoir la même variance...) sont à l’extérieures de celles
de X et la variance sera plus
• Ici, on a pris Y(Ω) = {−3; −1, 1, 3}. En notant a = P([Y = −3]) = P([Y = 3]) et b = P([Y = −1])) = P([Y = 1]), grande, soit à l’intérieur et la
on doit avoir : 2a + 2b = 1 et V(Y) = 4, d’où E(Y2 ) = 4, d’où 18a + 2b = 4... variance sera plus petite...

••◦◦ Exercice 14 - Suites de variables aléatoires & matrice


On dispose d’une urne contenant quatre boules numérotées 1, 2, 3 et 4. On effectue dans cette urne une
succession de tirages d’une boule avec remise et on suppose qu’à chaque tirage, chacune des boules a la
même probabilité d’être tirée.
On note pour tout n de N∗ , Xn la variable aléatoire égale au nombre de numéros distincts obtenus en n
tirages.
On a donc X1 = 1 et par exemple, si les premiers tirages donnent 2, 2, 1, 2, 1, 4, 3 alors on a : X1 = 1, X2 = 1,
X3 = 2, X4 = 2, X5 = 2, X6 = 3, X7 = 4.

Exercices du chapitre 12 - Page 13/33


L’espérance et la variance d’une variable aléatoire Z sont notées respectivement E(Z) et V(Z).
 
1/4 0 0 0
3/4 1/2
 0 0
Soit A la matrice carrée d’ordre 4 définie par : A =  . On pose pour tout n de N∗ ,
 0 1/2 3/4 0
 
0 0 1/4 1
 
P([Xn = 1])
P([X = 2])
 
Un =  n
.
P([Xn = 3])
 
P([Xn = 4])
1. 1.a. Déterminer la loi de la variable aléatoire X2 .
Notons, pour tout i ∈ J1; 4K et j ∈ N∗ , Bi,j l’évènement "on tire la boule numéro i lors du j -ième tirage".
• Commençons par remarquer que X2 (Ω) = J1; 2K.
•  L’évènement [X2 = 1] est réalisé si, et seulement si, les deux tirages ont fourni la même boule.
Ainsi :
[4
[X2 = 1] = (Bi,1 ∩ Bi,2 )
i=1
 Par conséquent :
 4 
[ 
P([X2 = 1]) = P  (Bi,1 ∩ Bi,2 )


par incompatibilité, pour i , k de Bi,1 et Bk,1
i=1
X
4
= P(Bi,1 ∩ Bi,2 ) par indépendances des tirages, car effectués avec remise
i=1
X4
= P(Bi,1 )P(Bi,2 ) par équiprobabilité des boules
i=1
X4
1
=
16
i=1
1
=
4
 
• On en déduit, puisque X2 (Ω) = {1; 2}, et donc que [X2 = 1], [X2 = 2] est un système complet
d’évènements :
3
P([X2 = 2]) = 1 − P([X2 = 1]) =
4
Conclusion : X2 (Ω) = {1; 2}
1 3
P([X2 = 1]) = et P([X2 = 2]) = .
4 4

1.b. Calculer E(X2 ) et V(X2 ).


Puisque X2 (Ω) = {1; 2}, on a :

E(X2 ) = 1P([X2 = 1]) + 2P([X2 = 2])
7
=
4
• Par théorème de transfert :
E(X22 ) = 12 P([X2 = 1]) + 22 P([X2 = 2])
13
=
4
• D’où, d’après la formule de Koenig-Huygens :
 2
V(X2 ) = E(X22 ) − E(X2 )
13 49
= −
4 16
52 − 49
=
16
3
=
16

7 3
Conclusion : E(X2 ) = et V(X2 ) = .
4 16

1.c. On note F la fonction de répartition de X2 . Déterminer l’expression, pour tout x ∈ R, de


F(x) en fonction de x, puis tracer sa courbe représentative.
Soit x ∈ R. On a : 

 0 si x < 0


 1
F(x) = P([X2 ≤ x]) = 
 si x ∈ [1; 2[

 4
 1 si x ≥ 2
D’où on déduit sa courbe, que je n’ai pas envie de tracer.
2. 2.a. Déterminer U1 .
On sait que X1 est constante égale à 1.
 
1
0
Conclusion : U1 =  .
0
0

Exercices du chapitre 12 - Page 14/33


2.b. Préciser l’ensemble des valeurs prises par Xn .
Soit n ∈ N∗ .
• Si n = 1, alors Xn (Ω) = {1}.
• Si n = 2, alors Xn (Ω) = {1; 2}.
• Si n = 3, alors Xn (Ω) = {1; 2; 3}.
• Si n ≥ 4, alors Xn (Ω) = {1; 2; 3; 4}.
2.c. Établir pour tout n ∈ N∗ , la relation suivante : Un+1 = AUn .
Soit n ∈ N∗ . Petite remarque
• D’après la formule des probabilités totales, avec ([Xn = k])k∈J1;4K comme système complet d’évè- Même dans les cas n = 1,
n = 2 et n = 3, la famille
nements, on a : ([Xn = k])k∈J1;4K est un sce (au
pire, certains évènements sont
X
4
vides).
P([Xn+1 = 1]) = P([Xn = k] ∩ [Xn+1 = 1]) si k ∈ {2; 3; 4}, alors [Xn = k] ∩ [Xn+1 = 1] = ∅
k=1
= P([Xn = 1] ∩ [Xn+1 = 1]) P([Xn = 1]) , 0
= P([Xn = 1])P[Xn =1] ([Xn+1 = 1])
Supposons l’évènement [Xn = 1] réalisé.
Dans ce cas, l’évènement [Xn+1 = 1] est réalisé si, et seulement si, on tire encore la même boule
au n + 1-ième tirage (la même qu’aux n tirages précédents).
Par équiprobabilité des boules, on a ainsi :
1
P[Xn =1] ([Xn+1 = 1]) =
4
Par conséquent :
1
P([Xn = 1])
P([Xn+1 = 1]) =
4
• De manière analogue, on obtient (sous réserve que P([Xn = 2]) , 0) :
P([Xn+1 = 2]) = P([Xn = 1])P[Xn =1] ([Xn+1 = 2]) + P([Xn = 2])P[Xn =2] ([Xn+1 = 2])
Ensuite :
 Supposons l’évènement [Xn = 1] réalisé.
Dans ce cas, l’évènement [Xn+1 = 2] est réalisé si, et seulement si, on tire une boule qui n’est
pas celle tirée jusqu’alors.
Par conséquent :
3
P[Xn =1] ([Xn+1 = 2]) =
4
 Supposons l’évènement [Xn = 2] réalisé.
Dans ce cas, l’évènement [Xn+1 = 2] est réalisé si, et seulement si, on tire une boule qui a déjà
été tirée
Par conséquent :
1
P[Xn =2] ([Xn+1 = 2]) =
2
3 1
P([Xn+1 = 2]) = P([Xn = 1]) + P([Xn = 2])
4 2
• Et de la même façon, puisque [Xn = 1] ∩ [Xn+1 = 3] = ∅, on obtient :
1 3
P([Xn+1 = 3]) = P([Xn = 2]) + P([Xn = 3])
2 4
• Ainsi que :
1
P([Xn+1 = 4]) = P([Xn = 3]) + P([Xn = 4])
4
Conclusion : ∀n ∈ N∗ , Un+1 = AUn .

 
 1 
−3
 
3. On considère les quatre matrices V1 , V2 , V3 , V4 à 4 lignes et 1 colonne, définies par : V1 =   , V2 =
 3 
 
−1
     
  0    0   
0 
 1   0  0
   
  , V3 =   , V4 =  .
−2  1  0
     
1 −1 1
3.a. Démontrer :  n−1  n−1  n−1
1 1 3
∀n ∈ N∗ , Un = V1 + 3 V2 + 3 V3 + V4
4 2 4
Par récurrence...
• Initialisation.
  Pour n = 1 :
1
0
U1 =  , et :
0
0
 1−1  1−1  1−1
1 1 3
V1 + 3 V2 + 3 V3 + V4 = V1 + 3V2 + 3V3 + V4
4 2 4  
1
0
=  
0
0
L’initialisation est ainsi vérifiée.

Exercices du chapitre 12 - Page 15/33


 n−1  n−1  n−1
1 1 3
• Hérédité. Soit n ∈ N∗ . Supposons Un = V1 +3 V2 +3 V3 + V4 et montrons que
 n  n  n 4 2 4
1 1 3
Un+1 = V1 + 3 V2 + 3 V3 + V4 .
4 2 4
D’après la question 2., on a :
Un+1 = AUn !
 n−1  n−1  n−1 par hypothèse de récurrence
1 1 3
= A V1 + 3 V2 + 3 V3 + V4
4 2 4
 n−1  n−1  n−1
1 1 3
= AV1 + 3 AV2 + 3 AV3 + AV4
4 2 4
Or, après calculs, on trouve :
1 1 3
AV1 = V ; AV2 = V2 ; AV3 = 3V3 ; AV4 = V4
4 1 2 4
D’où :  n  n  n
1 1 3
Un+1 = V1 + 3 V2 + 3 V3 + V4
4 2 4
L’hérédité est ainsi vérifiée.
 n−1  n−1  n−1
1 1 3
Conclusion : ∀n ∈ N∗ , Un = V1 + 3 V2 + 3 V3 + V4 .
4 2 4

3.b. En déduire, pour tout n ∈ N∗ , la loi de la variable aléatoire Xn .


Pas de difficulté particulière, mais long à écrire...
4. 4.a. Calculer, pour tout n de N∗ , la valeur de E(Xn ).
Pareil...

4.b. Calculer lim E(Xn ). Commenter.


n→+∞
• De tête, on trouve :
lim E(Xn ) = 4
n→+∞
• Au bout d’un grand nombre de lancers, les 4 boules auront été tirées (c’est plutôt normal !).

••◦◦ Exercice 15
Dans tout l’exercice, n désigne un entier naturel supérieur ou égal à 2.
On lance n fois une pièce donnant PILE avec la probabilité p ∈]0; 1[ et donnant FACE avec la probabilité
q = 1 − p. On suppose les lancers indépendants et on note :
• pour tout k ∈ J1; nK, Pk l’évènement : "obtenir PILE au k-ième lancer" et Fk = Pk ;
• Xn la variable aléatoire égale au nombre de FACE obtenues avant l’apparition du premier PILE.
On convient que Xn prend la valeur n si aucun PILE n’est obtenu au cours des n lancers.
1. Préciser Xn (Ω).
Assimilons chaque issue de cette expérience à un n-uplet composé de P (PILE) ou de F (FACE).
• Soit ω ∈ Ω. Sans difficulté, Xn (Ω) est un entier compris entre 0 et n. Ainsi : Xn (Ω) ⊂ J0; nK.
• Réciproquement, soit k ∈ J0; nK.
 Si k = 0 : on remarque que l’issue, qui est un n-uplet, (P, P, ..., P) réalise l’évènement [Xn = 0]. Petit à petit...
 Si k = n : on remarque que l’issue (F, F, ..., F) réalise l’évènement [Xn = n]. Vous devez tous être en me-
sure de donner Xn (Ω). En
 Si k ∈ J1; n − 1K : on remarque que l’issue (F, ..., F, P, ...., P) composée de k FACE puis des PILE réalise
revanche, la justification
l’évènement [Xn = k]. demande un travail de rédac-
Par conséquent, l’évènement [Xn = k] est toujours non vide. tion et de justification non
On a ainsi établir : négligeable, qui n’est pas la
J0; nK ⊂ Xn (Ω) priorité dans votre travail.

Conclusion : Xn (Ω) = J0; nK.

2. Calculer P([Xn = 0]) ainsi que P([Xn = n]). àRéflexe !


On travaille sur les évène-
• [Xn = 0] = P1 , donc P([Xn = 0]) = P(P1 ) = p. ments avant de calculer les
•  L’évènement [Xn = n] est réalisé si, et seulement si, on obtient n FACE sans jamais obtenir PILE. probabilités !
Ainsi :
\
n
[Xn = n] = F1 ∩ F2 ∩ ... ∩ Fn = Fk
k=1
 Par conséquent :
 n  Petite remarque
 \  \ Y
P([Xn = n]) = P  Fk  L’écriture avec et n’est
 par indépendance des lancers
k=1 pas indispensable (même si
Y
n elle ne devrait pas trop poser
= = P(Fk ) souci) ; on peut se contenter
k=1
de l’écriture avec les poin-
= = qn tillés.

Conclusion : P([Xn = 0]) = p et P([Xn = n]) = qn .

3. Déterminer, pour tout k ∈ J1; n − 1K, une expression simple de P([Xn = k]).
Soit k ∈ J1; n − 1K.

Exercices du chapitre 12 - Page 16/33


• L’évènement [Xn = k] est réalisé si, et seulement si, on obtient k-FACE puis un PILE. Ainsi :
 
\k 
 
[Xn = k] = F1 ∩ F2 ∩ ... ∩ Fk ∩ Pk+1 =  Fi  ∩ Pk+1

 
i=1

• Pr conséquent :
  
\k  
  
P([Xn = k]) = P  Fi  ∩ Pk+1 

   par indépendance des lancers
i=1
= qk p

Conclusion : pour tout k ∈ J1; n − 1K, P([Xn = k]) = qk p.

X
n
4. Vérifier que P([Xn = k]) = 1.
k=0 8 Attention !
On a : Il n’y a pas qu’une seule ex-
X
n X
n−1 pression de P([Xn = k]) pour
P([Xn = k]) = P([Xn = 0]) + P([Xn = k]) + P([Xn = n]) tous les k de J0; nK (même si
k=0 k=1 les cas P([Xn = 0]) peut être
X
n−1 inclus dans le cas de la ques-
= p+ qk p + qn q0 = 1
tion précédente.
k=1
X
n−1
= qk p + qn
k=0
X
n−1
= p qk + qn q,1
k=0
1 − qn
= p + qn p = 1−q
1−q
= 1 − qn + qn
= 1
X
n
Conclusion : P([Xn = k]) = 1.
k=0

X
n−1
5. Considérons la fonction f définie sur ]0; 1[ par : ∀x ∈]0; 1[, f (x) = xk .
k=0
5.a. Soit x ∈]0; 1[. En exprimant de deux façons différentes f 0 (x), établir :

X
n−1
x − nx n + (n − 1)xn+1
kx k =
(1 − x)2
k=1

X
n−1
• f étant une fonction polynomiale, elle est dérivable sur ]0; 1[. Et comme f (x) = 1 + xk , on
k=1
obtient, par linéarité de la dérivation :
X
n−1
f 0 (x) = kx k−1
k=1

1 − xn
• Mais on sait aussi, puisque x ∈]0; 1[, que f (x) = . D’où, en dérivant sous cette forme :
1−x
−nx n−1 (1 − x) − (1 − xn )(−1)
f 0 (x) =
(1 − x)2
−nx n−1 + nx n + 1 − xn
=
(1 − x)2
1 − nx n−1 + (n − 1)xn
=
(1 − x)2
En égalant ces deux expressions, on obtient :
X
n−1
1 − nx n−1 + (n − 1)xn
kx k−1 =
(1 − x)2
k=1
Puis, on obtient le résultat voulu en multipliant par x.
X
n−1
x − nx n + (n − 1)xn+1
Conclusion : kx k = .
(1 − x)2
k=1

Exercices du chapitre 12 - Page 17/33


5.b. En déduire l’espérance de Xn .
Puisque Xn (Ω) = J0; nK, on a :
X
n
E(Xn ) = kP([Xn = k])
k=0
Xn
= kP([Xn = k]) 8 Attention !
k=1 L’expression de P([Xn = n])
X
n−1
n’est pas la même que celle
= kq k p + nqn des P([Xn = k]), avec k ∈
k=1 J1; n − 1K.
X
n−1
= p kq k + nq n question précédente, q ∈]0; 1[
k=1
q − nqn + (n − 1)qn+1
= p + nq n p = 1−q
(1 − q)2
q − nqn + (n − 1)qn+1
= + nq n
1−q
q − nqn + (n − 1)qn+1 + nqn (1 − q)
=
1−q
q + qn (−n + (n − 1)q + n(1 − q))
=
1−q
q + qn (−q)
=
1−q
q − qn+1
=
1−q

q − qn+1
Conclusion : E(Xn ) = .
1−q

5.c. Calculer lim E(Xn ).


n→+∞
Puisque q ∈]0; 1[, on a : lim qn+1 = 0.
n→+∞
q q 1
Conclusion : lim E(Xn ) = = = − 1.
n→+∞ 1−q p p

•••◦ Exercice 16 - Loi d’un minimum


Dans toute l’exercice, n est un entier supérieur ou égal à 2. Soit Ω l’univers d’une expérience aléatoire
muni d’une probabilité P. On dit qu’une variable aléatoire X, définie sur Ω, suit la loi uniforme sur J1; nK
lorsque :
• X(Ω) = J1; nK
1
• ∀k ∈ J1; nK, P([X = k]) =
n
1. Soient X et Y deux variables aléatoires indépendantes sur Ω, suivant toutes deux la loi uniforme
sur J1; nK. On note M = min(X, Y).
1.a. Déterminer, pour tout k ∈ J1; nK, P([X ≥ k]).
Soit k ∈ J1; nK.
On a :
X
n
P([X ≥ k]) = P([X = i])
i=k
Xn
1
=
n
i=k
n−k +1
=
n
Conclusion : pour tout k ∈ J1; nK, P([X ≥ k]).

1.b. Justifier que M est une variable aléatoire sur Ω.


Puisque X et Y sont deux applications définies sur Ω et à valeurs réelles, alors M l’est également.
Conclusion : M est une variable aléatoire.

1.c. Déterminer, pour tout k ∈ J1; nK, la valeur de P([M ≥ k]).


Soit k ∈ J1; nK. Pourquoi ?
On a : x ≥ min(a, b) ⇐⇒ (x ≥ a et x ≥
b)
P([M ≥ k]) = P([min(X, Y) ≥ k])
= P([X ≥ k] ∩ [Y ≥ k]) par indépendance de X et Y
= P([X ≥ k])P([Y ≥ k])
!2 d’après la question 1.a. et comme X et Y ont même loi
n−k +1
=
n
!2
n−k +1
Conclusion : ∀k ∈ J1; nK, P([M ≥ k]) = .
n

1.d. En déduire la loi de M.

Exercices du chapitre 12 - Page 18/33


• Remarquons déjà que, puisque X(Ω) = J1; nK et Y(Ω) = J1; nK, alors M(Ω) ⊂ J1; nK.
• Soit k ∈ J1; nK.
 Si k = n :
Puisque M(Ω) ⊂ J1; nK, on a :
[M ≥ n] = [M = n]
D’où :
P([M = n]) = P([M ≥ n]) question précédente
1
= 2
n Important !
 Si k ∈ J1; n − 1K : Cette écriture de [M ≥ k]
On a : est très utile pour retrouver
la loi à partir de la fonction
[M ≥ k] = [M = k] ∪ [M ≥ k + 1] de répartition (il y en a une
Puis, par incompatibilité des évènements [M = k] et [M ≥ k + 1], on obtient : analogue sur [max(X, Y) ≤ k]...
voir exercice suivant).
P([M ≥ k]) = P([M = k]) + P([M ≥ k + 1])
D’où : 3 Rigueur !
On voit bien qu’il fallait pro-
P([M = k]) = P([M ≥ k]) − P([M ≥ k + 1]) céder à une disjonction de
!2 !2 question précédente
n−k +1 n−k cas : pour utiliser le résultat
= − de la question précédente
n n
sur P([X ≥ k + 1]) il faut que
(n − k + 1 − (n − k))(n − k + 1 + n − k) k + 1 ≤ n...
=
n2
2n − 2k + 1
=
n2
Les deux cas peuvent se regrouper pour conclure...
Conclusion : M(Ω) = J1; nK Pourquoi ?
2n − 2k + 1 On peut maintenant conclure
∀k ∈ J1; nK, P([M = k]) = . que M(Ω) = J1; nK, car pour
n2 tout k ∈ J1; nK, [M = k] , ∅
(car de probabilité non nulle).
2. Soient maintenant (Xi )i∈J1;nK une suite de variables aléatoires indépendantes sur Ω, suivant toutes
la loi uniforme sur J1; nK. On note M = min(X1 , X2 , ..., Xn ).
2.a. Déterminer, pour tout k ∈ J1; nK, la valeur de P([M ≥ k]).
Soit k ∈ J1; nK.
On a :
P([M ≥ k]) = P([min(X1 , X2 , ..., Xn ) ≥ k])
= P([X1 ≥ k] ∩ [X2 ≥ k] ∩ ... ∩ [Xn ≥ k]) par indépendance des variables aléatoires Xi
= P([X1 ≥ k])P([X
!n 2 ≥ k]) × ... × P([Xn ≥ k]) d’après la question 1.a. et comme les Xi suivent toute la loi uniforme sur J1; nK
n−k +1
=
n
!n
n−k +1
Conclusion : ∀k ∈ J1; nK, P([M ≥ k]) = .
n

2.b. En déduire la loi de M.


• Remarquons déjà que, puisque, pour tout i ∈ J1; nK, Xi (Ω) = J1; nK, alors M(Ω) ⊂ J1; nK.
• Soit k ∈ J1; nK.
 Si k = n :
Puisque M(Ω) ⊂ J1; nK, on a :
[M ≥ n] = [M = n]
D’où :
P([M = n]) = P([M ≥ n]) question précédente
1
=
nn
 Si k ∈ J1; n − 1K :
On a :
[M ≥ k] = [M = k] ∪ [M ≥ k + 1]
Puis, par incompatibilité des évènements [M = k] et [M ≥ k + 1], on obtient :
P([M ≥ k]) = P([M = k]) + P([M ≥ k + 1])
D’où : 3 Rigueur !
On voit bien qu’il fallait pro-
P([M = k]) = P([M ≥ k])! − P([M ≥!k + 1]) question précédente céder à une disjonction de
n n
n−k +1 n−k cas : pour utiliser le résultat
= − de la question précédente
n n
(n − k + 1)n − (n − k)n sur P([X ≥ k + 1]) il faut que
= k + 1 ≤ n...
nn
Les deux cas peuvent se regrouper pour conclure...
Conclusion : M(Ω) = J1; nK Pourquoi ?
(n − k + 1)n − (n − k)n ) On peut maintenant conclure
∀k ∈ J1; nK, P([M = k]) = . que M(Ω) = J1; nK, car pour
nn tout k ∈ J1; nK, [M = k] , ∅
(car de probabilité non nulle).
[
n
2.c. Notons A = [Xi = 1]. Démontrer : P(A) ≥ 1 − e−1 .
i=1
Indication : ∀x ∈] − 1; +∞[, ln(1 + x) ≤ ....

Exercices du chapitre 12 - Page 19/33


Trivial !
• On rappelle que : Bien entendu, tout le monde
∀x ∈] − 1; +∞[, ln(1 + x) ≤ x sait redémontrer ce résultat
en moins de 2 minutes si
besoin.

L’évènement A est réalisé si, et seulement si, il existe i ∈ J1; nK tel que Ai soit réalisé
si, et seulement si, l’évènement [M = 1] est réalisé
Par conséquent :
A = [M = 1]
On en déduit :
P(A) = P([M = 1]) d’après la question précédente
nn − (n − 1)n
=
 n n n
1
= 1− 1−
n
−1
• Or, en utilisant le rappel donné, avec x = ∈] − 1; +∞[ (car n ≥ 2), on a :
n
 
1 −1
ln 1 − ≤
n n
D’où, puisque n > 0 et par croissance de l’exponentielle sur R :
  
1
exp ln 1 − ≤ e−1
n
Autrement dit :  
1 n
1− ≤ e−1
n
Ainsi :  
1 n
1− 1− ≥ 1 − e−1
n

Conclusion : P(A) ≥ 1 − e−1 .

•••◦ Exercice 17 - Loi d’un maximum


Soit n ∈ J2; +∞J. On considère une urne composée de n boules, numérotées de 1 à n, indiscernables au
toucher. On tire simultanément deux boules dans cette urne. On note X la variable aléatoire égale au
plus grand des deux nombres obtenus.
k(k − 1)
1. Justifier que pour tout k ∈ J2; nK, P([X ≤ k]) = .
n(n − 1)
• L’expérience consiste au tirage de 2 boules dans une urne en contenant n, toutes indiscernables au tou-
cher. !
n
Par conséquent, Ω est l’ensemble des sous-ensembles de J1; nK à 2 éléments ; donc Card(Ω) = .
2
• Soit k ∈ J2; nK.
L’évènement [X ≤ k] est réalisé si, et seulement si, le plus grand des deux nombres est inférieur ou égal à k
si, et seulement si, on a tiré 2 boules parmi les boules 1 à k
! !
k   k
Or, puisque k ≥ 2, il y a sous-ensembles de J1; kK à deux éléments. Ainsi : Card [X ≤ k] = .
2 2
Par équiprobabilité (boules indiscernables au toucher), on a ainsi :
 
Card [X ≤ k]
P([X ≤ k]) =
Card(Ω)
k
2
= n
2
k!2!(n − 2)!
=
2!(k − 2)!n!
k(k − 1)
=
n(n − 1)
♥ Astuce du chef ! ♥
k(k − 1) On peut retrouver X(Ω) à
Conclusion : pour tout k ∈ J2; nK, P([X ≤ k]) = . partir de la fonction de ré-
n(n − 1)
partition, donc à partir du
résultat de la question précé-
2. En déduire la loi de X. dente (même si nous n’avons
• Commençons par remarquer que, puisqu’il est impossible que les deux boules tirées soient toutes deux l’expression de la fonction de
numérotées 1, on a X(Ω) = J2; nK. répartition que sur J2; nK et
pas sur R).
• Soit k ∈ J2; nK. En effet, la fonction de répar-
 Si k = 2 : tition est nulle "avant" X(Ω),
Puisque X(Ω) = J2; nK, on a : constante égale à 1 "après"
X(Ω), et possède des disconti-
[M ≤ 2] = [M = 2]
nuités en chaque élément de
D’où : X(Ω).
P([M = 2]) = P([M ≤ 2]) question précédente
2
=
(n − 1)

Exercices du chapitre 12 - Page 20/33


Important !
Cette écriture de [M ≤ k] est
 Si k ∈ J3; nK. On a :
très utile pour retrouver la
[M ≤ k] = [M = k] ∪ [M ≤ k − 1] loi à partir de la fonction de
Puis, par incompatibilité des évènements [M = k] et [M ≤ k − 1] : répartition.
P([M ≤ k]) = P([M = k]) + P([M ≤ k − 1])
D’où : 3 Rigueur !
On voit bien qu’il fallait pro-
P([M = k]) = P([M ≤ k]) − P([M ≤ k − 1]) question précédente, car k − 1 ≥ 2 céder à une disjonction de
k(k − 1) (k − 1)(k − 2) cas : pour utiliser le résultat
= −
n(n − 1) n(n − 1) de la question précédente
(k − 1)(k − (k − 2)) sur P([X ≤ k − 1]) il faut que
= k − 1 ≥ 2...
n(n − 1)
2(k − 1)
=
n(n − 1)
Les deux cas peuvent se regrouper pour conclure...
Conclusion : X(Ω) = J2; nK
2(k − 1)
∀k ∈ J2; nK, P([X = k]) = .
n(n − 1)

3. Calculer l’espérance et la variance de X.


Puisque X(Ω) = J2; nK, on a :

Xn
E(X) = kP([X = k]) question précédente et linéarité de la somme
k=2
2 X
n
= k(k − 1)
n(n − 1)
 n
k=2 
X Xn 
2  
= 
2
k − k 
n(n − 1)  
k=2 k=2  
X n X n 
2
 2 
 
= k − 1 −  k − 1 
n(n − 1)  
k=1 k=1 !
2 n(n + 1)(2n + 1) n(n + 1)
= −
n(n − 1) 6 2
2 (n + 1)(2n + 1) − 3(n + 1)
=
n−1 6
(n + 1)(2n − 2)
=
3(n − 1)
2(n + 1)
=
3
• Par théorème de transfert :
Xn
E(X2 ) = k 2 P([X = k]) question précédente et linéarité de la somme
k=2
2 X
n
= k 2 (k − 1)
n(n − 1)
 n
k=2 
X 3 X 2 
n
2
=  k − k 
n(n − 1)  
k=2 k=2  
 X
n  X
n 
2 
 3 −1−  2 − 1

=  k  k 
n(n − 1) 
k=1 k=1 !
2 n2 (n + 1)2 n(n + 1)(2n + 1)
= −
n(n − 1) 4 6
2 3n(n + 1)2 − 2(n + 1)(2n + 1)
=
n−1 12
(n + 1)(3n(n + 1) − 2(2n + 1))
=
6(n − 1)
(n + 1)(3n2 − n − 2)
= 1 est racine de x 7−→ 3x2 − x − 2
6(n − 1)
(n + 1)(n − 1)(3n + 2)
=
6(n − 1)
(n + 1)(3n + 2)
=
6
• D’où, d’après la formule de Koenig-Huygens :
 2
V(X) = E(X2 ) − E(X) Vérification !
(n + 1)(3n + 2) 4(n + 1)2 ) Deux vérifications pour se
= − conforter :
6 9 
(n + 1) 3(3n + 2) − 8(n + 1) Puisque n ≥ 2, la variance est
= bien positive...
18 Pour n = 2, la variable aléa-
(n + 1)(n − 2) toire X ‘est constante égale à
=
18 2 : son espérance doit donc
valoir 2 et sa variance 0...

••◦◦ Exercice 18
On dispose d’une urne U0 contenant deux boules noires et deux boules blanches, et d’urnes U1 , U2 , U3 , . . .
contenant chacune deux boules blanches. On effectue des tirages selon le protocole suivant :

Exercices du chapitre 12 - Page 21/33


• on pioche au hasard deux boules dans l’urne U0 , une par une et sans remise, et on les place dans
l’urne U1 ;
• on pioche au hasard deux boules dans l’urne U1 , une par une et sans remise, et on les place dans
l’urne U2 ;
• on pioche au hasard deux boules dans l’urne U2 , une par une et sans remise, et on les place dans
l’urne U3 ; et ainsi de suite.
Pour tout entier naturel n non nul, on note Xn la variable aléatoire égale au nombre de boules noires
contenues dans l’urne Un après y avoir introduit les boules piochées dans l’urne Un−1 , mais avant de
procéder au tirage suivant. On pose X0 = 2.
1. Déterminer la loi de X1 ainsi que son espérance.
Notons, pour i ∈ J1; nK, Ni l’évènement "on pioche une balle noire lors du i-ième tirage dans l’urne U0 ".
• Commençons déjà par remarquer que X1 (Ω) = {0; 1; 2}.
•  L’évènement [X1 = 0] est réalisé si, et seulement si, aucune balle noire n’a été piochée dans l’urne
U0 .
D’où :
[X1 = 0] = N1 ∩ N2
Par conséquent :
P([X1 = 0]) = P(N1 ∩ N2 ) P(N1 ) , 0
= P(N1 )PN (N2 ) tirage sans remise
1
11
=
23
1
=
6
 L’évènement [X1 = 1] est réalisé si, et seulement si, une seule balle noire a été piochée dans l’urne
U0 .
D’où :
[X1 = 1] = (N1 ∩ N2 ) ∪ (N1 ∩ N2 )
Par conséquent :
 
P([X1 = 1]) = P (N1 ∩ N2 ) ∪ (N1 ∩ N2 ) par incompatibilité de N1 et N1 , donc de N1 ∩ N2 et N1 ∩ N2
= P(N1 ∩ N2 ) + P(N1 ∩ N2 ) P(N1 ) , 0, P(N1 ) , 0
= P(N1 )PN1 (N2 ) + P(N1 )PN (N2 ) tirage sans remise
1
12 12
= +
23 23
2
=
3
 L’évènement [X1 = 2] est réalisé si, et seulement si, les deux balles noires ont été piochées dans
l’urne U0 . Petite remarque
D’où : On aurait aussi pu calculer
[X1 = 2] = N1 ∩ N2 deux probabilités, puis dé-
Par conséquent : duire la troisième du fait que
X1 (Ω) = {0; 1; 2}. L’avantage
P([X1 = 2]) = P(N1 ∩ N2 ) P(N1 ) , 0
de la méthode proposée, bien
= P(N1 )PN1 (N2 ) tirage sans remise
que plus longue : elle permet
11 une vérification des résultats
= (la somme des trois probabili-
23 tés doit être égale à 1).
1
=
6

Conclusion : X1 (Ω) = {0; 1; 2}


1 2 1
P([X1 = 0]) = , P([X1 = 1]) = , P([X1 = 2]) = .
6 3 6

2. Déterminer, pour tout n ∈ N, la probabilité de l’évènement [Xn = 2].


• Puisque X0 est constante égale à 2, on a P([X0 = 2]) = 1.
1
• On sait déjà que P([X1 = 2]) = .
6
• Soit n ∈ J2; +∞J.
Notons, pour tout k ∈ N, Ak l’évènement "on pioche les deux balles noires dans l’urne Uk ".
 L’évènement [Xn = 2] est réalisé si, et seulement si, pour tout k ∈ J0; n − 1K, on a pioché les deux
balles noires dans l’urne Uk .
Ainsi :
\
n−1
[Xn = 2] = Ak
k=0
 D’après la formule des probabilités composées (les conditionnements étant effectués par des évè-
nements de probabilité non nulle) :
n−1 
 \ 
P([Xn = 2]) = P  Ak 

k=0
= P(A0 )PA0 (A1 ) × ... × PA0 ∩...∩An−2 (An−1 )
\
i
Or, pour tout i ∈ J0; n − 2K, l’évènement Ai est égal à l’évènement "l’urne Ui+1 contient les deux
k=0
balles noires".
De plus, le tirage étant effectué sans remise, la probabilité, de piocher les deux balles noires dans

Exercices du chapitre 12 - Page 22/33


1 1 1
une urne les contenant, et contenant également les deux balles blanches, est égale à × = .
2 3 6
Par conséquent :
1 1 1
P([Xn = 2]) = × × ... ×
6 6 6
| {z }
n facteurs
 n
1
=
6
Les trois cas peuvent se regrouper en un seul...
 n
1
Conclusion : ∀n ∈ N, P([Xn = 2]) = .
6
1
3. 3.a. Pour tout entier naturel n non nul, montrer que l’on a : P ([Xn+1 = 1]) = P ([Xn = 1]) + Petite remarque
  2
2 1 n Le résultat à établir est égale-
ment valable si n = 0...
3 6
Soit n ∈ N∗ .
  Pourquoi ?
D’après la formule des probabilités totales, avec [Xn = 0], [Xn = 1], [Xn = 2] comme système complet C’est bien le cas, puisque,
d’évènements, on a : pour tout n ∈ N∗ , Xn (Ω) =
{0; 1; 2}.
P([Xn+1 = 1]) = P([Xn = 0] ∩ [Xn+1 = 1]) + P([Xn = 1] ∩ [Xn+1 = 1]) + P([Xn = 2] ∩ [Xn+1 = 1]) car [Xn = 0] ∩ [Xn+1 = 1] = ∅
= P([Xn = 1] ∩ [Xn+1 = 1]) + P([Xn = 2] ∩ [Xn+1 = 1]) les évènements [Xn = 1] et [Xn = 2] sont de p
= P([Xn = 1])P[Xn =1] ([Xn+1 = 1]) + P([Xn = 2])P[Xn =2] ([Xn+1 = 1])
 n question précédente
1
= P([Xn = 1])P[Xn =1] ([Xn+1 = 1]) + P[Xn =2] ([Xn+1 = 1])
6
Or :
• Supposons l’évènement [Xn = 1] réalisé. Dans ce cas, l’urne Un contient, avant d’y effectuer les
tirages, trois balles blanches et une balle noire.
Par conséquent :
l’évènement [Xn+1 = 1] est réalisé si, et seulement si, l’urne Xn+1 contient, avant d’y effectuer les tirages, trois balles blanches et une
si, et seulement si, la balle noire a été tirée dans l’urne Un
Or, les tirages étant effectués sans remise, la probabilité de tirer la balle noire dans l’urne Un est
1 3 3 1 1 1 1
égale à × + × = = = .
4 3 4 3 4 4 2
• Supposons l’évènement [Xn = 2] réalisé. Dans ce cas, l’urne Un contient, avant d’y effectuer les
tirages, deux balles blanches et deux balles noires.
Par conséquent :
l’évènement [Xn+1 = 1] est réalisé si, et seulement si, l’urne Xn+1 contient, avant d’y effectuer les tirages, deux balles blanches et un
si, et seulement si, une balle noire a été tirée dans l’urne Un
Or, les tirages étant effectués sans remise, la probabilité de tirer une balle noire dans l’urne Un
1 2 1 2 2
est égale à × + × = .
2 3 2 3 3
On en déduit :  
1 2 1 n
P ([Xn+1 = 1]) = P ([Xn = 1]) +
2 3 6
 
1 2 1 n
Conclusion : Pour tout entier naturel n non nul : P ([Xn+1 = 1]) = P ([Xn = 1]) + .
2 3 6
 n
1
3.b. Posons, pour n ∈ N∗ , un = P([Xn = 1]) + 2 . Montrer que (un )n∈N∗ est géométrique puis
6

en déduire, pour tout n ∈ N , l’expression de P([Xn = 1]) en fonction de n.
Cette expression est-elle encore valable pour n = 0 ?
• Soit n ∈ N∗ . On a :
 n+1
1
un+1 = P([Xn+1 = 1]) + 2 question précédente
6 n  n+1
1 2 1 1  n
= P ([Xn = 1]) + +2 1
2 3 6 P([Xn = 1]) = un − 2
 n    6n+1 6
1 1 2 1 n 1
= un − + +2
2  6 n  3 6 6
1 1 2 1
= u + −1 + + 2
2 n  6 n  3 6
1 1 2 1
= un + −1 + +
2 6 3 3
1
= un
2
1
Par conséquent, la suite (un )n∈N∗ est géométrique de raison et de premier terme u1 = P([X1 =
2
1
1]) + = 1.
3
• On en déduit :
 n−1
1
∀n ∈ N∗ , un =
2
D’où :
 n−1  n
1 1
∀n ∈ N∗ , P([Xn = 1]) = −2
2 6
• Or :
 −1  0
1 1
−2 = 2 − 2 = 0 = P([X0 = 1])
2 6

Exercices du chapitre 12 - Page 23/33


 n−1  n
1 1
Conclusion : ∀n ∈ N, P([Xn = 1]) = −2 .
2 6

3.c. Donner, pour tout n ∈ N, la valeur de P ([X


 n = 0]) en fonction de n.
Soit n ∈ N. Puisque [Xn = 0], [Xn = 1], [Xn = 2] est un système complet d’évènements, on a :

P([Xn = 0]) + P([Xn = 1]) + P([Xn = 2]) = 1 Vérification !


On vérifie le résultat pour
Puis, on utilise les résultats des questions 2. et 3.b.... n = 0 et n = 1 en utilisant le
 n−1  n fait que P([X0 = 0]) = 0 et
1 1
Conclusion : ∀n ∈ N, P([Xn = 0]) = 1 − + . 1
P([X1 = 0]) = ... C’est bon !
2 6 6

4. Calculer, pour tout entier naturel n, l’espérance de Xn . Déterminer la limite de cette espérance
lorsque n tend vers +∞.
• Soit n ∈ N. Puisque Xn (Ω) = {0; 1; 2}, on a :
Vérification !
E(Xn ) = 0P([Xn = 0]) + 1P([Xn = 1]) + 2P([Xn = 2])
 n−1 questions précédentes On vérifie le résultat pour n =
1 0 : puisque X0 est constante
=
2 égale à 2, on a E(X0 ) = 2...
c’est bon !

1 Petite remarque
• Puisque ∈] − 1; 1[, on a : Il est normal que cette es-
2
lim E(Xn ) = 0 pérance tende vers 0... En
n→+∞ fait, la variable aléatoire Xn
va tendre (si l’on définit une
notion de limite de variable
aléatoire...) vers la variable
aléatoire suivant la loi cer-
•••◦ Exercice 19 taine égale à 0.
Un mobile se déplace sur un axe comme suit : à l’instant 0, il est au point 0. Puis, pour tout n ∈ N∗ , si Au bout d’un "grand nombre"
de tirages, les urnes ne
le mobile est à l’instant n sur le point d’abscisse k, alors à l’instant n + 1, il sera sur le point d’abscisse contiendront presque-
k + 1 avec probabilité p ∈]0; 1[, sur le point d’abscisse 0 sinon. On appelle Xn la variable aléatoire égale à sûrement pas de balle noire.
l’abscisse du mobile à l’instant n. On a donc X0 = 0.
1. Donner la loi de X1 .
• X1 (Ω) = {0; 1}
• De plus :
 [X1 = 1] ="le mobile est passé du point 0 au point 1" ; d’où P([X1 = 1]) = p
 et ainsi : P([X1 = 0]) = 1 − p
2. Démontrer par récurrence que pour tout n ∈ N∗ , Xn (Ω) = J0; nK.
• Initialisation. Pour n = 1.
On a vu, à la question précédente, que X1 (Ω) = {0; 1} : l’initialisation est ainsi vérifiée.
• Hérédité. Soit n ∈ N∗ . Supposons que Xn (Ω) = J0; nK et montrons que Xn+1 (Ω) = J0; n + 1K.
Par hypothèse de récurrence, Xn (Ω) = J0; nK. Donc, à l’instant n, il existe k ∈ J0; nK tel que le mobile se
situe en position k.
Par conséquent, à l’étape n + 1, le mobile peut se déplacer en position 0 ou en position k + 1. Ainsi, les
points possibles pour la position du mobile à l’instant n + 1 sont : 0 et tous les k + 1, avec k ∈ J0; nK.
Autrement dit : Xn+1 (Ω) = J0; n + 1K : l’hérédité est établie.
Conclusion : pour tout n ∈ N∗ , Xn (Ω) = J0; nK.

3. Montrer que pour tout n ∈ N∗ et tout k ∈ J1; nK : P([Xn = k]) = pP([Xn−1 = k − 1]).
Soit n ∈ N∗ et soit k ∈ J1; nK.  
D’après la question précédente, Xn−1 (Ω) = J0; n − 1K. Ainsi, la famille [Xn−1 = i] est un système
i∈J0;n−1K
complet d’évènements, et d’après la formule des probabilités totales, on obtient :
X
n−1  
P([Xn = k]) = P [Xn−1 = i] ∩ [Xn = k]
i=0
Or, le mobile se déplace seulement de deux façons différentes : soit d’un point i au suivant, soit d’un point i
au point 0. Par conséquent, puisque k , 0, pour être au point k à l’instant n, il faut avoir été au point k − 1 à
l’instant n − 1.
D’où :
∀i , k − 1, [Xn−1 = i] ∩ [Xn = k] = ∅ Pourquoi ?
Et ainsi : Tous les termes de la somme
  pour i , k − 1 sont nuls.
P([Xn = k]) = P [Xn−1 = k − 1] ∩ [Xn = k]
 
= P [Xn−1 = k − 1] × P[Xn−1 =k−1] ([Xn = k])
 
= pP [Xn−1 = k − 1]

Conclusion : pour tout n ∈ N∗ et tout k ∈ J1; nK : P([Xn = k]) = pP([Xn−1 = k − 1]).

4. En déduire que pour tout n ∈ N∗ , E(Xn ) = pE(Xn−1 ) + p ; puis déterminer l’expression de E(Xn ) en
fonction de n et p.

Exercices du chapitre 12 - Page 24/33


• Soit n ∈ N∗ . Puisque Xn (Ω) = J0; nK, on a :
X
n
E(Xn ) = kP([Xn = k])
k=0
Xn
= kP([Xn = k]) question précédente
k=1
Xn
= kpP([Xn−1 = k − 1]) changement d’indice i = k − 1
k=1

X
n−1
= p (i + 1)P([Xn−1 = i])
i=0
X
n−1 X
n−1
= p iP([Xn−1 = i]) + p P([Xn−1 = i]) Xn−1 (Ω) = J0; n − 1K
i=0 i=0
= pE(Xn−1 ) + p × 1

Conclusion : pour tout n ∈ N∗ , E(Xn ) = pE(Xn−1 ) + p


 
• On remarque alors que la suite E(Xn ) ∗ est une suite arithmético-géométrique...
n∈N
p
 Point fixe de x 7−→ px + p : (car p , 1).
1−p
p
 Notons (un )n∈N∗ la suite définie par : ∀n ∈ N∗ , un = E(Xn )− . On vérifie sans mal que (un )n∈N∗
1−p
p p −p 2
est géométrique, de raison p et de premier terme u1 = E(X1 ) − =p− = .
1−p 1−p 1−p
−p 2 n−1
D’où : ∀n ∈ N∗ : un = p .
1−p
! !
p p n−1 p pn
Conclusion : ∀n ∈ N∗ , E(Xn ) = 1− p = 1− .
1−p 1−p 1−p 1−p

5. 5.a. Soit n ∈ N∗ . Calculer P([Xn = n]) et P([Xn = 0]).


• L’évènement [Xn = n] est réalisé si, et seulement si, à chaque étape, le mobile s’est déplacé sur le
point suivant. Par conséquent : P([Xn = n]) = p n .
 
• Ensuite, d’après la formule des probabilités totales, avec [Xn−1 = i] comme système
i∈J0;n−1K
complet d’évènements :
X
n−1
P([Xn = 0]) = P([Xn = 0] ∩ [Xn−1 = i])
i=0
X
n−1
= P([Xn−1 = i) × P[Xn−1 =i] ([Xn = 0])
i=0
X
n−1
= P([Xn−1 = i]) × (1 − p)
i=0
X
n−1
= (1 − p) P([Xn−1 = i]) Xn−1 (Ω) = J0; n − 1K
i=0
= 1−p

5.b. En utilisant la question 3., démontrer que pour tout n ∈ N∗ et tout k ∈ J0; n − 1K, P([Xn =
k]) = p k (1 − p).
Par récurrence... 8 Attention !
La récurrence porte ici sur n...
• Initialisation. Pour n = 1. et le résultat à établir inclut la
Ainsi n − 1 = 0, et donc J0; n − 1K = {0}. quantification en k !
Or, on sait que P([Xn = 0]) = 1 − p d’après la question précédente.
Et comme p 0 (1 − p) = 1 − p, on a bien : P([Xn = 0]) = p 0 (1 − p). L’initialisation est bien vérifiée.
• Hérédité. Soit n ∈ N∗ . Supposons "∀k ∈ J0; n − 1K, P([Xn = k]) = p k (1 − p)" et montrons "∀k ∈
J0; nK, P([Xn+1 = k]) = p k (1 − p)".
Soit k ∈ J0; nK.
 Si k = 0, le résultat est valable, d’après la question 5.a.
 Si k ∈ J1; nK, d’après la question 3., on a :
P([Xn+1 = k]) = pP([Xn = k − 1]) par hypothèse de récurrence
= pp k−1 (1 − p)
= p k (1 − p)
L’hérédité est établie.
Conclusion : pour tout n ∈ N∗ et tout k ∈ J0; n − 1K, P([Xn = k]) = p k (1 − p).

X
n
5.c. Vérifier que pour tout n ∈ N∗ , P([Xn = k]) = 1.
k=0

Exercices du chapitre 12 - Page 25/33


Soit n ∈ N∗ . On a :
X
n X
n−1
P([Xn = k]) = P([Xn = k]) + P([Xn = n]) questions 5.a. et 5.b.
k=0 k=0
X
n−1
= p k (1 − p) + p n
k=0
X
n−1
= (1 − p) pk + pn p,1
k=0
1 − pn
= (1 − p) + pn
1−p
= 1

•••◦ Exercice 20
Soit n un entier naturel tel que n ≥ 2. On dispose d’un paquet de n cartes C1 , C2 , . . ., Cn que l’on distribue
intégralement, les unes après les autres entre n joueurs J1 , J2 , ... , Jn selon le protocole suivant :
• la première carte C1 est donnée à J1 ;
• la deuxième carte C2 est donnée de façon équiprobable entre J1 et J2 ;
• la troisième carte C3 est donnée de façon équiprobable entre J1 , J2 et J3 ;
• et ainsi de suite, jusqu’à la dernière carte Cn qui est donc distribuée de façon équiprobable entre
les joueurs J1 ,... , Jn .
On suppose l’expérience modélisée sur un espace probabilisé (Ω, P (Ω), P).
On note Xn la variable aléatoire égale au nombre de joueurs qui n’ont reçu aucune carte à la fin de la
distribution.
1. Déterminer Xn (Ω) et calculer P([Xn = 0]) et P([Xn = n − 1]). Petite remarque
• Xn prend des valeurs entières entre 0 et n ; et le joueur J1 a toujours au moins une carte. Par conséquent : Il s’agit de démontrer l’égalité
Xn (Ω) ⊂ J0; n − 1K. de deux ensembles. On pro-
Réciproquement : cède par double-inclusion.
 L’évènement [Xn = 0] est réalisé en donnant, pour tout i ∈ J1; nK, la carte Ci au joueur Ji . Pour vérifier que J0; n − 1K ⊂
Xn (Ω), il faut démontrer que
 Pour réaliser l’évènement [Xn = 1], il suffit que pour tout i ∈ J1; n − 1K, la carte Ci soit donnée au chaque entier de J0; n − 1K est
joueur Ji et que la carte Cn soit donnée à J1 . dans Xn (Ω). Mais, "k ∈ Xn (Ω)"
 Soit k ∈ J2; n − 2K. Pour réaliser l’évènement [Xn = k − 2], il suffit que, pour tout i ∈ J1; n − kK, la carte équivaut à "k est l’image d’au
moins une issue par Xn ", ce
Ci soit donnée au joueur Ji et que pour tout i ∈ Jn − k + 1; n − 1K, la carte Ci soit donnée au joueur J1 . qui équivaut à également
 L’évènement [Xn = n − 1] est réalisé en donnant toutes les cartes au joueur J1 . "[Xn = k] est non vide" (on
Ainsi, pour tout k ∈ J1; n − 1K, [Xn = k] , ∅. rappelle que [Xn = k] est en
fait l’ensemble des issues dont
Conclusion : Xn (Ω) = J0; n − 1K. l’image par Xn est égale à k ).

• L’évènement [Xn = 0] est réalisé si, et seulement si, pour tout i ∈ J1; n − 1K, la carte Ci est donnée au
joueur Ji .
Notons justement, pour tout i ∈ J1; nK, l’évènement Ai : "la carte Ci est donnée au joueur Ji .
Par conséquent :
\
n
[Xn = 0] = Ai
i=1
Et ainsi :
 n 
\ 
P([Xn = 0]) = P  Ai 

indépendance des distributions
i=1
Y
n
= P(Ai ) équiprobabilité du choix des joueurs : 1 favorable (Ji ), sur i joueurs au moment de distribuer Ci
i=1

Yn
1
=
i
i=1
1
=
n!
• L’évènement [Xn = n − 1] est réalisé si, et seulement si, pour tout i ∈ J1; n − 1K, la carte Ci est donnée au
joueur J1 .
Notons justement, pour tout i ∈ J1; nK, l’évènement A0i : "la carte Ci est donnée au joueur J1 .
Par conséquent :
\n
[Xn = n − 1] = A0i
i=1
Et ainsi :
 n 
\ 
P([Xn = n − 1]) = P  Ai 
 0
indépendance des distributions
i=1
Y
n
= P(A0i ) équiprobabilité du choix des joueurs : 1 favorable (J1 ), sur i joueurs au moment de distribuer Ci
i=1

Yn
1
=
i
i=1
1
=
n!

Exercices du chapitre 12 - Page 26/33


2. Pour tout i de J1, nK, on note Bi la variable aléatoire qui vaut 1 si Ji n’a reçu aucune carte à la fin
de la distribution et vaut 0 sinon.
Déterminer la loi de Bi . Exprimer Xn en fonction des Bi et en déduire l’espérance de Xn .
• Soit i ∈ J1; nK.
 Puisque le joueur J1 reçoit toujours au moins une carte, on a B1 = 0.
 Soit i ∈ J2; nK.
l’évènement [Bi = 1] est réalisé si, et seulement si, Ji n’a reçu aucune carte à la fin de la distribution Ji n’est pas présent lors des précé
si, et seulement si, Ji n’a reçu aucune des cartes Ci , Ci+1 , ..., Cn
Pour tout j ∈ Ji; nK, notons Di,j l’évènement "la carte Cj n’est pas donnée au joueur Ji ". Ainsi :
\
n
[Ji = 1] = Di,j
j =i
Et ainsi :
 
\ n 
 
P([Bi = 1]) = P  Di,j 

  par indépendance des distributions
j =i
Y
n
= P(Di,j ) équiprobabilité du choix des joueurs : j − 1 favorables sur j
j =i
Y n
j −1
= télescopage
j
j =i
i −1
=
n
Et puisque Bi (Ω) = {0; 1}, on a ainsi :
i −1
P([Bi = 0]) = 1 −
n
Conclusion : B1 est constante égale à 0 ;
i −1 i −1
∀i ∈ J2; nK, Bi (Ω) = {0; 1}, P([Bi = 1]) = et P([Bi = 0]) = 1 − .
n n
• Puisque Xn est le nombre de joueurs n’ayant reçu aucune carte, on a :
X
n
Xn = Bi
i=1
• On a ainsi :
 n 
X 
E(Xn ) = E 
 Bi  par linéarité de l’espérance
i=1
X
n
= E(Bi ) B1 = 0 et ∀i ∈ J2; nK, Bi (Ω) = {0; 1}
i=1
X
n
= 0+ (0P([Bi = 0]) + 1P([Bi = 1]))
i=2
X
n
i −1
= changement d’indice k = i − 1
n
i=2
1 X
n−1
= k
n
k=1
1 n(n − 1)
=
n 2
n−1
=
2
3. Donner la loi de X4 .
• On sait déjà que X4 (Ω) = J0; 3K.
• On sait également que :
1
 P([X4 = 0]) =
24
1
 P([X4 = 3]) =
24
Or, on doit avoir :
X
3
P([X4 = k]) = 1
k=0
3
mais aussi, puisque E(X4 ) = , on doit avoir :
2
X
3
kP([X4 = k])
k=0
 11

 P([X4 = 1]) + P([X4 = 2])

 =
Autrement dit, on doit avoir :  12 Après résolution de ce système,

 11
 P([X4 = 1]) + 2P([X4 = 2]) =
 8
 11

 P([X4 = 1]) =

24
on obtient : 


 P([X4 = 2]) =
11
24

Exercices du chapitre 12 - Page 27/33


Conclusion : X4 (Ω) = J0; 3K
1 11
P([X4 = 0]) = P([X4 = 3]) = ; P([X4 = 1]) = P([X4 = 2]) = .
24 24

4. 4.a. Montrer que pour i et j dans J1, nK tels que i < j , on a :


  (i − 1)(j − 2)
P [Bi = 1] ∩ [Bj = 1] =
n(n − 1)
Soient i, j ∈ J1; nK tels que i < j .
L’évènement [Bi = 1] ∩ [Bj = 1] est réalisé si, et seulement si, les cartes Ci , Ci+1 , ..., Cj −1 ne sont pas
données à Ji ET les cartes Cj , Cj +1 , ..., Cn ne sont données ni à Ji ni à Jj .
Par une démarche analogue à celle mise en place en question 2., on a ainsi :
j −1
Y Y
  k −1
n
k −2
P [Bi = 1] ∩ [Bj = 1] = ×
télescopages
k k
k=i k=j
i − 1 (j − 2)(j − 1)
= ×
j −1 (n − 1)n
(i − 1)(j − 2))
=
n(n − 1)
  (i − 1)(j − 2)
Conclusion : pour tous i, j ∈ J1, nK tels que i < j , on a P [Bi = 1] ∩ [Bj = 1] = .
n(n − 1)

4.b. Soient i, j ∈ J1; nK, avec i , j . Les évènements [Bi = 1] et [Bj = 1] sont-ils indépendants ?
Quitte à échanger i et j (rôles symétriques), on peut supposer que i < j .
D’après la question précédente, on a :
  (i − 1)(j − 2)
P [Bi = 1] ∩ [Bj = 1] =
n(n − 1)
Et, d’après la question 2. :
i −1 j −1
P([Bi = 1]) = ; P([Bj = 1]) =
n n
• Si i = 1 :
Alors on a :     Petite remarque
P [B1 = 1] ∩ [Bj = 1] = 0 = P [B1 = 1]) × P([Bj = 1]
On sait que [B1 = 1] = ∅ et
Dans ce cas, les évènements [Bi = 1] et [Bj = 1] sont indépendants. que l’évènement impossible
est indépendant de tous les
• Si i , 1 : autres... C’est cohérent !
Alors :
   
[Bi = 1] et [Bj = 1] sont indépendants ⇐⇒ P [Bi = 1] ∩ [Bj = 1] = P([B1 = 1]) × P([Bj = 1])
(i − 1)(j − 2) (−1)(j − 1)
⇐⇒ = i − 1 , 0, n , 0
n(n − 1) n2
j −2 j −1
⇐⇒ n , 0, n , 1
n−1 n
⇐⇒ n(j − 2) = (n − 1)(j − 1)
⇐⇒ nj − 2n = nj − j − n + 1
⇐⇒ j = n + 1
Or on sait que j ∈ J1; nK, donc j , n + 1. Par équivalences, on a ainsi :
   
P [Bi = 1] ∩ [Bj = 1] , P [B1 = 1]) × P([Bj = 1]
Les évènements [Bi = 1] et [Bj = 1] ne sont pas indépendants.

Conclusion : pour tout j ∈ J2; nK, les évènements [B1 = 1] et [Bj = 1] sont indépendants
pour tous i, j ∈ J2; nK tels que i , j , les évènements [Bi = 1] et [Bj = 1] ne sont pas indépendants.

•••◦ Exercice 21
On considère une urne contenant n + 1 boules numérotées de 0 à n. On y effectue une suite de tirages
d’une boule à la fois avec remise. On définit la suite de variables aléatoires (Xk )k∈N∗ de la manière
suivante :
• X1 est une variable aléatoire constante égale à 1,
• pour k ∈ J2; +∞J, Xk = 1 si le numéro obtenu au k-ième tirage n’a pas déjà été obtenu au cours des
tirages précédents, et Xk = 0 sinon.
1. Déterminer la loi de X2 .
• Remarquons déjà que X2 (Ω) = {0; 1}.
• Ensuite :
l’évènement [X2 = 1] est réalisé si, et seulement si, le numéro obtenu au deuxième tirage n’a pas été obtenu au premier tirage
si, et seulement si, on pioche une des n balles non tirées au premier tirage
Par équiprobabilité du tirage des boules, on a ainsi :
n
P([X2 = 1]) =
n+1
 
• Puisque X2 (Ω) = {0; 1} et que [X2 = 0], [X2 = 1] est alors un système complet d’évènements, on a :
n 1
P([X2 = 0]) = 1 − =
n+1 n+1

Exercices du chapitre 12 - Page 28/33


Conclusion : X2 (Ω) = {0; 1}
1 n
P([X2 = 0]) = ; P([X2 = 1]) = .
n+1 n+1

2. Soit k ∈ J2; +∞J. Montrer :


 
n k−1
Xk (Ω) = {0; 1} ; P([Xk = 1]) =
n+1
En déduire l’espérance de Xk .
• Montrons que Xk (Ω) = {0; 1}.
⊂ De façon immédiate, on a Xk (Ω) ⊂ {0; 1}.
⊃ Montrons que {0; 1} ⊂ Xk (Ω).
⇝ Pour réaliser l’évènement [Xk = 0], il suffit que la boule 1 soit tirée aux tirages 1 à k. Ainsi
[Xk = 0] , ∅.
⇝ Pour réaliser l’évènement [Xk = 1], il suffit que la boule 1 soit tirée aux tirages 1 à k − 1 et que
la boule 2 soit tirée au tirage k. Ainsi [Xk = 1] , ∅.
Conclusion : Xk (Ω) = {0; 1}.
• Notons pour tout j ∈ J0; nK, et tout i ∈ J1; kK, Bi,j l’évènement "le numéro obtenu au i-ième tirage n’est
pas le numéro j ".
On a ainsi :
     
[Xk = 1] = B1,0 ∩ B2,0 ∩ ... ∩ Bk−1,0 ∩ Bk,0 ∪ B1,1 ∩ B2,1 ∩ ... ∩ Bk−1,1 ∩ Bk,1 ∪ ... ∪ B1,n ∩ B2,n ∩ ... ∩ Bk−1,n ∩ Bk,n
  
[  \
n k−1
 
= 
 Bi,j  ∩ Bk,j 
 
j =0 i=1

Par conséquent :
   
[
  \
n k−1  
 
P([Xk = 1]) = 
P   Bi,j  ∩ Bk,j 

pour tous j, j 0 ∈ J0; nK, les évènements Bk,j et Bk,j 0 sont incompatibles...
   
j =0 i=1  
X n \
k−1  
  
= P  Bi,j  ∩ Bk,j 
   tirages avec remise, d’où indépendance des évènements
j =0  i=1 
X n Y
k−1 

=  P(Bi,j ) P(Bk,j )
  équiprobabilité des choix de la boule
j =0  i=1 
X n Y
k−1 n  1
=  
 n + 1  n + 1
j =0 i=1
X n  
n k−1 1
=
n+1 n+1
j =0
 
n k−1 1
= (n + 1)
  n+1 n+1
n k−1
=
n+1
 
n k−1
Conclusion : P([Xk = 1]) = .
n+1 Petite remarque
AUTRE MÉTHODE POUR CALCULER CETTE PROBABILITÉ On procède ici à rebours...
Ensuite, commençons par remarquer que, puisque les tirages sont effectués avec remise, il y a toujours On peut, puisque pour tous
n + 1 boules dans l’urne. évènements A1 , A2 , ..., Ak ,
on a : A1 ∩ A2 ∩ ... ∩ Ak =
Aussi : Ak ∩ Ak−1 ∩ .... ∩ A1 .
l’évènement [Xk = 1] est réalisé si, et seulement si, le numéro obtenu au k-ième tirage n’a pas été obtenu aux précédents tirages
si, et seulement si, pour tout i ∈ J1; k − 1K, le numéro obtenu au i-ème tirage n’est pas celui obtenu au k-ièm
si, et seulement si, pour tout i ∈ J1; k − 1K, on pioche au i-ième tirage une des n balles non tirées au k-ième t
Par indépendance des tirages (ceux-ci étant effectués avec remise), puis équiprobabilité des boules tirées :
 
n k−1
P([Xk = 1]) =
n+1
• Puisque Xk (Ω) = {0; 1}, on a :
E(Xk ) = 0P([Xk = 0]) + 1P([Xk = 1])
= P([Xk = 1])
 
n k−1
=
n+1
 
n k−1
Conclusion : E(Xk ) = .
n+1
3. 3.a. Montrer :
  (n − 1)i−1 nj −i
∀i < j, P [Xi = 1] ∩ [Xj = 1] =
(n + 1)j −1
Soient i, j ∈ J1; nK tels que i < j .
En reprenant les évènements définis à la question précédente et en notant, pour tous N, N 0 ∈ J0; nK et

Exercices du chapitre 12 - Page 29/33


tout m ∈ J1; nK, Bm,N,N 0 l’évènement "le numéro obtenu au m-ième tirage n’est ni le numéro N ni le
numéro N 0 ", on a :
 
 n  i−1   j −1  
n 
[  [  \
 

 
 \ 
 

[Xi = 1] ∩ [Xj = 1] = 
  Bm,N,N 0  ∩ Bi,N ∩  Bm,N 0  ∩ Bj,N 
    
N 0 =0   N=0 m=1 m=i+1 
N,N 0

Par incompatibilité puis indépendance :


 
 n  i−1   j −1  
Xn   X  Y   Y  
     
P([Xi = 1] ∩ [Xj = 1]) = 


 P(Bm,N,N 0 ) × P(Bi,N ) ×  P(Bm,N 0 ) × P(Bj,N )
      équiprobabilité des choix de la boule
N =0  N=0 m=1
0 m=i+1 
0
 N,N 
 n  i−1   j −1  
Xn   X  Y   Y  
  n − 1 
 1  n  1 
=   × ×   × 
  n + 1  n + 1  n + 1  n + 1 
N 0 =0   N=0 m=1 m=i+1 
0
N,N 
n 
 n !
X  X  n − 1 i−1 1
 
n j −i−1 1 
 
=  n+1
×
n+1
×
n+1
×
n + 1 
N 0 =0   N=0 
N,N 0 
n 
 n 

X  X (n − 1)i−1 nj −i−1 
 
=  
 (n + 1) j 
N =0  N=0
0 
N,N 0
Xn !
(n − 1)i−1 nj −i−2
= n×
N 0 =0
(n + 1)j −1
(n − 1)i−1 nj −i−1
Petite remarque
= (n + 1) × n × Champagne !!!
(n + 1)j Sinon, on aurait pu "expli-
(n − 1)i−1 nj −i quer" cette probabilité...
=
(n + 1)j −1

3.b. En déduire, pour tous i < j , la loi du produit Xi Xj .


Soient i, j ∈ J1; nK tels que i < j .
• Puisque Xi (Ω) = {0; 1} et Xj (Ω) = {0, 1}, on a Xi Xj (Ω) ⊂ {0; 1}.
• Ensuite puisque Xi et Xj ne prennent que 0 et 1 comme valeurs, l’évènement [Xi Xj = 1] est réalisé
si, et seulement si, les évènements [Xi = 1] et [Xj = 1] sont simultanément réalisés.
Ainsi :
[Xi Xj = 1] = [Xi = 1] ∩ [Xj = 1]
Par conséquent, d’après la question précédente :
(n − 1)i−1 nj −i
P([Xi Xj = 1]) =
(n + 1)j −1
On en déduit [Xi Xj = 0] , ∅ et :

(n − 1)i−1 nj −i
P([Xi Xj = 0]) = 1 −
(n + 1)j −1

Conclusion : Xi Xj (Ω) = {0; 1},


(n − 1)i−1 nj −i (n − 1)i−1 nj −i
P([Xi Xj = 0]) = 1 − et P([Xi Xj = 1]) = .
(n + 1)j −1 (n + 1)j −1

4. Soit N ∈ J2; +∞J. On note ZN la variable aléatoire égale au nombre de numéros distincts obtenus
au cours des N premiers tirages. Exprimer ZN en fonction des Xk et en déduire son espérance.
X
N
• De façon immédiate, on a ZN = Xi .
i=1
• Ensuite, on avait obtenu :
 
n k−1
∀k ∈ J2; +∞J, E(Xk ) =
n+1
Et on sait que X1 est constante égale à 1, donc E(X1 ) = 1.
 
n 1−1
Puisque = 1, ces deux cas peuvent se regrouper :
n+1
 
n k−1
∀k ∈ N∗ , E(Xk ) =
n+1

Exercices du chapitre 12 - Page 30/33


• On a enfin : N 
X 
E(ZN ) = E  Xi  linéarité de l’espérance
i=1
X
n
= E(Xi ) par ce qui précède
i=1
XN  i−1
n Petite remarque
= changement d’indice k = i − 1
n+1 On a ainsi lim E(ZN ) =
i=1 N→+∞
X  n k
N−1 (n + 1). Au bout d’un grand
= n nombre de tirages, on obtien-
n+1 ,1 dra en moyenne n + 1 boules
k=0  n+1
 différentes. C’est normal : si
1 − n+1n N
on effectue un grand nombre
= n de tirages, on tirera vraisem-
1 − n+1
  ! blablement toutes les boules
n N possibles...
= (n + 1) 1 −
n+1

•••◦ Exercice 22 - Variables aléatoires indicatrices


Soient Ω l’univers d’une expérience aléatoire et P une probabilité sur P (Ω). Pour tout A ∈ P (Ω), on note
1 A la variable aléatoire définie par :
(
1 si ω ∈ A
∀ω ∈ Ω, 1 A (ω) =
0 sinon
Vocabulaire
1. Que dire de 1Ω et 1∅ ? Si une variable aléatoire est
Pour tout A ∈ P (Ω), la variable aléatoire 1A prend la valeur 1 si l’évènement A est réalisé, 0 sinon. Ainsi : constante égale à un réel c, on
• 1Ω est constante égale à 1 ; dit qu’elle suite la loi certaine
égale à c.
• 1∅ est constante égale à 0.
⋆Subtile...⋆
2. Soit A ∈ P (Ω). Déterminer la loi de 1 A ainsi que son espérance.
Il n’y a pas 1A (Ω) = {0; 1}
• On sait déjà que 1A (Ω) ⊂ {0; 1}. si A = Ω ou A = ∅ par
• Par définition, on a, pour tout ω ∈ Ω : exemple...

ω ∈ [1A = 1] ⇐⇒ ω ∈ A
D’où :
[1A = 1] = A
Par conséquent :
P([1A = 1]) = P(A)
Et ainsi :
P([1A = 0]) = 1 − P(A)
• On en déduit :
E(1A ) = 0P([1A = 0]) + 1P([1A = 1])
= P(A)

3. Soient A, B ∈ P (Ω). Établir :

1A = 1 − 1A ; 1 A∩B = 1 A × 1 B ; 1 A∪B = 1 A + 1 B − 1 A∩B

• Montrons que 1A = 1 − 1A . 8 Attention !


Soit ω ∈ Ω. Il s’agit d’établir une égalité
entre deux applications X et
 Si ω ∈ A.
Y toutes deux définies sur Ω .
⇝ Par définition, on a ainsi 1A (ω) = 1. On montre donc que pour
tout ω ∈ Ω , X(ω) = Y(ω).
⇝ Mais, puisque ω ∈ A, on a ω < A. D’où 1A (ω) = 0.
Ainsi :
1A (ω) = 1 − 1A (ω)
 Si ω ∈ A.
⇝ Puisque ω ∈ A, on a ω < A, d’où 1A (ω) = 0.
⇝ Or ω ∈ A, donc, par définition : 1A (ω) = 0.
Ainsi :
1A (ω) = 1 − 1A (ω)

Conclusion : ∀ω ∈ Ω, 1A (ω) = 1 − 1A (ω).


Autrement dit : 1A = 1 − 1A .
• Montrons que 1A∩B = 1A × 1B .
Soit ω ∈ Ω.
 Si ω ∈ A ∩ B.
⇝ Alors, par définition, 1A∩B (ω) = 1.
⇝ Aussi, puisque ω ∈ A ∩ B, on a ω ∈ A et ω ∈ B.
Par définition, on a alors : 1A (ω) = 1 et 1B (ω) = 1.
D’où :
1A (ω) × 1B (ω) = 1
Ainsi :
1A∩B (ω) = 1A (ω) × 1B (ω)

Exercices du chapitre 12 - Page 31/33


 Si ω ∈ A ∩ B.
⇝ Alors, par définition, 1A∩B (ω) = 0.
⇝ De plus, on sait, d’après la loi de Morgan : A ∩ B = A ∪ B.
Ainsi, puisque ω ∈ A ∪ B, on a ω ∈ A ou ω ∈ B.
D’où, par définition : 1A (ω) = 0 ou 1B (ω) = 0. Ce qui donne (règle du produit nul) :
1A (ω)1B (ω) = 0
Ainsi :
1A∩B (ω) = 1A (ω) × 1B (ω)
Conclusion : ∀ω ∈ Ω, 1A∩B (ω) = 1A (ω) × 1B (ω).
Autrement dit : 1A∩B = 1A × 1B .
• Montrons que 1A∪B = 1A + 1B − 1A∩B .
Utilisons les deux points précédents pour établir celui-ci...
On sait que A ∪ B = A ∩ B. Ainsi :
1A∪B = 1 premier point de la question
A∩B
= 1 − 1A∩B deuxième point de la question
= 1 − 1A × 1B premier point de la question
= 1 − (1 − 1A )(1 − 1B )
= 1 − (1 − 1A − 1B + 1A∩B )
= 1A + 1B − 1A∩B

Conclusion : 1A∪B = 1A + 1B − 1A∩B .

Remarque
AUTRE MÉTHODE POSSIBLE :
Soit ω ∈ Ω.
 Si ω ∈ A ∪ B.
⇝ Alors, par définition, 1A∪B (ω) = 1.
     
⇝ Aussi, remarquons que A ∪ B = A ∩ B ∪ B ∩ A ∪ A ∩ B ; et que c’est une union de trois évènements
deux à deux incompatibles... Trois cas se présentent alors :
— Si ω ∈ A ∩ B.
Alors par définition, 1A∩B (ω) = 1. Mais on a aussi ω ∈ A et ω ∈ B, donc 1A (ω) = 1 et 1B (ω) = 1.
Ce qui donne :
1A (ω) + 1B (ω) − 1A∩B (ω) = 1 + 1 − 1 = 1
— Si ω ∈ A ∩ B.
Alors on a 1A (ω) = 1,1B (ω) = 0, et puisque ω < B, 1A∩B (ω) = 0. Ce qui donne :
1A (ω) + 1B (ω) − 1A∩B (ω) = 1 + 0 − 0 = 1

— Si ω ∈ B ∩ A : analogue au cas précédent :


1A (ω) + 1B (ω) − 1A∩B (ω) = 0 + 1 − 0 = 1
Ainsi :
1A∪B (ω) = 1A (ω) + 1B (ω) − 1A∩B (ω)
Ainsi :
1A∩B (ω) = 1A (ω) × 1B (ω)
 Si ω ∈ A ∪ B.
⇝ Alors, par définition, 1A∪B (ω) = 0.
⇝ De plus, on sait, d’après la loi de Morgan : A ∪ B = A ∩ B.
Ainsi, puisque ω ∈ A ∩ B, on a ω ∈ A et ω ∈ B.
D’où, par définition : 1A (ω) = 0 et 1B (ω) = 0.
Puisque ω < A, on aω < A ∩ B, donc 1A∩B (ω) = 0. D’où :
1A (ω) + 1B (ω) − 1A∩B (ω) = 0 + 0 − 0 = 0
Ainsi :
1A∩B (ω) = 1A (ω) × 1B (ω)

Conclusion : ∀ω ∈ Ω, 1A∪B (ω) = 1A (ω) + 1B (ω) − 1A∩B .


Autrement dit : 1A∪B = 1A + 1B − 1A∩B .

4. Soit A un évènement tel que 0 < P(A) < 1. Si X est une variable aléatoire telle que X(Ω) est fini, on
définit la variable aléatoire, notée E A (X), par : 8 Attention !
1 1
1 1 E(X1A ) et E(X1A )
P(A) P(A)
E A (X) = E(X1 A ) × 1 A + E(X1 A ) × 1 A
P(A) P(A) sont des réels !
Donc EA (X) est bien une
variable aléatoire : c’est une
combinaison linéaire des
4.a. Déterminer la loi de la variable aléatoire E A (1 A ). variables aléatoires 1A et 1A .
On a déjà :
1 1
EA (1A ) = E(1A × 1A ) × 1A + E(1A × 1A ) × 1A d’après les questions précédentes : 1A × 1A = 1A∩A = 1A et 1A × 1A = 1A∩A = 1∅ = 0
P(A) P(A)
1 1
= E(1A ) × 1A + E(0) × 1A question 2. : E(1A ) = P(A)
P(A) P(A)
= 1A + 0
= 1A

Exercices du chapitre 12 - Page 32/33


⋆Subtile...⋆
Si on note V (Ω, R) l’ensemble
des variables aléatoires défi-
nies sur Ω , on a :
Conclusion : EA (1A ) et 1A suivent la même loi, donnée en question 2.. • L’application
E : V (Ω, R) −→ R
X 7−→ E(X)
4.b. Soient X et Y deux variables aléatoires prenant un nombre fini de valeurs. Démontrer : est une application linéaire
(voir chapitre).
E A (X + Y) = E A (X) + E A (Y) • Dans cette question,
on demande presque (il
faudrait travailler sur une
On a : combinaison linéaire de X
et Y, pas juste sur X + Y) de
montrer que l’application
1 1 EA : V (Ω, R) −→ V (Ω, R)
EA (X + Y) = E((X + Y)1A ) × 1A + E((X + Y)1A ) × 1A X 7−→ EA (X)
P(A) P(A)
1 1 est également linéaire.
= E(X1A + Y1A ) × 1A + E(X1A + Y1A ) × 1A
P(A) P(A) par linéarité de l’espérance
1   1  
= E(X1A ) + E(Y1A ) × 1A + E(X1A ) + E(Y1A ) × 1A
P(A) P(A)
1 1
= E(X1A )1A + E(Y1A ) × 1A + E(X1A )1A + E(Y1A ) × 1A
P(A) P(A)
= EA (X) + EA (Y)

4.c. Soit X une variable aléatoire prenant un nombre fini de valeurs. Démontrer :
   
E E A (X) = E(X) ; E A X1 A = E A (X) × 1 A

• Puisque 1A et 1A sont des variables aléatoires discrètes finies, EA (X) est une combinaison linéaire
de variables aléatoires discrètes finies : elle est donc également discrète finie, et admet ainsi une
espérance. On a :
!
  1 1
E EA (X) = E E(X1A ) × 1A + E(X1A ) × 1A
P(A) P(A) linéarité de l’espérance
1 1
= E(X1A ) × E(1A ) + E(X1A ) × E(1A ) question 2. : E(1A ) = P(A)
P(A) P(A)
1 1
= E(X1A ) × P(A) + E(X1A ) × P(A)
P(A) P(A)
= E(X1A ) + E(X1A ) linéarité de l’espérance
= E(X(1A + 1A )) question 3. : 1A + 1A = 1
= E(X)
• Par définition, on a :
  1 1
EA X1A = E(X1A 1A ) × 1A + E(X1A 1A ) × 1A 12A = 1A et 1A 1A = 0
P(A) P(A)
1
= E(X1A ) × 1A
P(A)
D’autre part :
!
1 1
EA (X) × 1A = E(X1A 1A ) × 1A + E(X1A 1A ) × 1A 1A
P(A) P(A)
1 1
= E(X1A 1A ) × 1A 1A + E(X1A 1A ) × 1A 1A 12A = 1A et 1A 1A = 0
P(A) P(A)
1
= E(X1A ) × 1A
P(A)
On a bien :  
EA X1A = EA (X) × 1A

Exercices du chapitre 12 - Page 33/33

Vous aimerez peut-être aussi