CORRIGES
Thèmes abordés
CORRIGES
Thèmes abordés
1 X 2
n
P(B) = 3
k
n
k=1
1 n(n + 1)(2n + 1)
=
n3 6
(n + 1)(2n + 1)
=
6n2
(n + 1)(2n + 1)
Conclusion : P(B) = .
6n2
3. Quelles sont les limites de ces deux probabilités quand n tend vers +∞ ?
Sans difficulté particulière, on remarque que :
1 1
lim P(A) = ; lim P(B) =
n→+∞ 3 n→+∞ 3
••◦◦ Exercice 9
Soit n ∈ N∗ . On considère une expérience aléatoire telle dont l’univers est J1; nK et on suppose qu’il existe
une probabilité P telle que :
∃λ ∈ R+ / ∀k ∈ J1; nK, P(J1; kK) = λk 2
Déterminer, pour tout k ∈ J1; nK, la probabilité de l’évènement {k}.
Remarquons déjà que P(J1; nK) = 1, d’où λn2 = 1.
Par conséquent :
1
λ= 2
n
Soit k ∈ J1; nK. On a :
• Si k = 1 :
1
P({1}) = P(J1; 1K) = λ12 = 2
n
• Si k ≥ 2 :
P({k}) = P(J1; kK) − P(J1; k − 1K)
= λk 2 − λ(k − 1)2
= λ(2k − 1)
2k − 1
=
n2
2k − 1
Conclusion : ∀k ∈ J1; nK, P({k}) = .
n2
•◦◦◦ Exercice 10
Pour chaque variable aléatoire ci-dessous, donner X(Ω).
1. X est le nombre de PILE obtenus en lançant quatre fois consécutives une pièce équilibrée.
X(Ω) = J0; 4K. ⋆Subtile...⋆
2. X est le minimum des nombres obtenus en lançant deux dés équilibrés. Nous verrons, dans le pro-
chain chapitre de probabili-
X(Ω) = J1; 6K. tés, que l’évènement "aucun
PILE n’apparaît" est de proba-
3. X est le rang du premier PILE pour une succession infinie de lancers de pièces et X prend la valeur bilité nulle.
0 si aucune PILE n’apparaît. En toute rigueur, l’énoncé
X(Ω) = N doit préciser la valeur que
prend X dans le cas où aucun
4. Pour tout n ∈ N∗ , Xn est le nombre de fois que l’on obtient 6 en lançant n fois un dé. PILE n’apparaît (l’∞-uplet
Xn (Ω) = J0; nK. (F, F, F, ..., ) est la seule issue
de cet évènement, qui est
donc non vide) ; même si
•◦◦◦ Exercice 11 l’évènement [X = 0] est de
probabilité nulle.
On considère la variable aléatoire X, dont la loi de probabilité est :
valeurs de X 1 5 8 10
probabilités 0,2 p q 0,1
Déterminer les valeurs de p et q, de sorte que l’espérance de X soit égale à 5, 6.
On doit avoir : X
P([X = x]) = 1 ; E(X) = 5, 6
x∈X(Ω)
Or : X
P([X = x]) = 1
p + q = 0, 7
x∈X(Ω) ⇐⇒
5p + 8q = 4, 4
E(X) = 5, 6
p = 0, 4
⇐⇒
q = 0, 3
Conclusion : p = 0, 4 et q = 0, 3.
••◦◦ Exercice 12
Soit p ∈]0; 1[. On lance une pièce donnant PILE avec la probabilité p jusqu’à obtenir le premier PILE ; et
dans tous les cas, on s’arrête après le cinquième lancer. Les lancers sont supposés indépendants.
On note X la variable aléatoire égale au nombre de lancers effectués.
X
n−1
Posons f : x 7−→ xk , définie sur ]0; 1[.
k=0
f étant une fonction polynomiale, elle est dérivable sur ]0; 1[.
X
n−1
Soit x ∈]0; 1[. Puisque f (x) = 1 + xk , on obtient, par linéarité de la dérivation :
k=1
X
n−1
f 0 (x) = kx k−1
k=1
1 − xn
Mais on sait aussi, puisque x ∈]0; 1[, que f (x) = . D’où, en dérivant sous cette forme :
1−x
−nx n−1 (1 − x) − (1 − xn )(−1)
f 0 (x) =
(1 − x)2
−nx n−1 + nx n + 1 − xn
=
(1 − x)2
1 − nx n−1 + (n − 1)xn
=
(1 − x)2
En égalant ces deux expressions, on obtient :
X
n−1
1 − nx n−1 + (n − 1)xn
kx k−1 =
(1 − x)2
k=1
X
n−1
1 − nx n−1 + (n − 1)xn
Conclusion : ∀n ∈ N∗ , ∀x ∈]0; 1[, kx k−1 = .
(1 − x)2
k=1
5. Calculer l’espérance de X.
X(Ω) = J1; 5K est fini, donc :
X
5
E(X) = kP([X = k])
k=1
X4
= k(1 − p)k−1 p + 5P([X = 5]) 8 Attention !
p , 0, donc 1 − p , 1 On doit décomposer la
k=1
somme, car il y a deux ex-
X4
pressions de P([X = k]) selon
= p k(1 − p)k−1 + 5(1 − p)4 d’après la question 1. que k = 5 ou k ∈ J1; 4K.
k=1
1 − 5(1 − p)4 + 4(1 − p)4
= p + 5(1 − p)4
(1 − (1 − p))2
1 − 5(1 − p)4 + 4(1 − p)5
= + 5(1 − p)4
p
1 − 5(1 − p) + 4(1 − p) + 5p(1 − p)4
4 5
=
p
1 + (1 − p)4 − 5 + 4(1 − p) + 5p
=
p
1 + (1 − p)4 (−1 + p)
=
p
1 − (1 − p)5
=
p
1 − (1 − p)5
Conclusion : E(X) = .
p
7 3
Conclusion : E(X2 ) = et V(X2 ) = .
4 16
1
−3
3. On considère les quatre matrices V1 , V2 , V3 , V4 à 4 lignes et 1 colonne, définies par : V1 = , V2 =
3
−1
0 0
0
1 0 0
, V3 = , V4 = .
−2 1 0
1 −1 1
3.a. Démontrer : n−1 n−1 n−1
1 1 3
∀n ∈ N∗ , Un = V1 + 3 V2 + 3 V3 + V4
4 2 4
Par récurrence...
• Initialisation.
Pour n = 1 :
1
0
U1 = , et :
0
0
1−1 1−1 1−1
1 1 3
V1 + 3 V2 + 3 V3 + V4 = V1 + 3V2 + 3V3 + V4
4 2 4
1
0
=
0
0
L’initialisation est ainsi vérifiée.
••◦◦ Exercice 15
Dans tout l’exercice, n désigne un entier naturel supérieur ou égal à 2.
On lance n fois une pièce donnant PILE avec la probabilité p ∈]0; 1[ et donnant FACE avec la probabilité
q = 1 − p. On suppose les lancers indépendants et on note :
• pour tout k ∈ J1; nK, Pk l’évènement : "obtenir PILE au k-ième lancer" et Fk = Pk ;
• Xn la variable aléatoire égale au nombre de FACE obtenues avant l’apparition du premier PILE.
On convient que Xn prend la valeur n si aucun PILE n’est obtenu au cours des n lancers.
1. Préciser Xn (Ω).
Assimilons chaque issue de cette expérience à un n-uplet composé de P (PILE) ou de F (FACE).
• Soit ω ∈ Ω. Sans difficulté, Xn (Ω) est un entier compris entre 0 et n. Ainsi : Xn (Ω) ⊂ J0; nK.
• Réciproquement, soit k ∈ J0; nK.
Si k = 0 : on remarque que l’issue, qui est un n-uplet, (P, P, ..., P) réalise l’évènement [Xn = 0]. Petit à petit...
Si k = n : on remarque que l’issue (F, F, ..., F) réalise l’évènement [Xn = n]. Vous devez tous être en me-
sure de donner Xn (Ω). En
Si k ∈ J1; n − 1K : on remarque que l’issue (F, ..., F, P, ...., P) composée de k FACE puis des PILE réalise
revanche, la justification
l’évènement [Xn = k]. demande un travail de rédac-
Par conséquent, l’évènement [Xn = k] est toujours non vide. tion et de justification non
On a ainsi établir : négligeable, qui n’est pas la
J0; nK ⊂ Xn (Ω) priorité dans votre travail.
3. Déterminer, pour tout k ∈ J1; n − 1K, une expression simple de P([Xn = k]).
Soit k ∈ J1; n − 1K.
• Pr conséquent :
\k
P([Xn = k]) = P Fi ∩ Pk+1
par indépendance des lancers
i=1
= qk p
X
n
4. Vérifier que P([Xn = k]) = 1.
k=0 8 Attention !
On a : Il n’y a pas qu’une seule ex-
X
n X
n−1 pression de P([Xn = k]) pour
P([Xn = k]) = P([Xn = 0]) + P([Xn = k]) + P([Xn = n]) tous les k de J0; nK (même si
k=0 k=1 les cas P([Xn = 0]) peut être
X
n−1 inclus dans le cas de la ques-
= p+ qk p + qn q0 = 1
tion précédente.
k=1
X
n−1
= qk p + qn
k=0
X
n−1
= p qk + qn q,1
k=0
1 − qn
= p + qn p = 1−q
1−q
= 1 − qn + qn
= 1
X
n
Conclusion : P([Xn = k]) = 1.
k=0
X
n−1
5. Considérons la fonction f définie sur ]0; 1[ par : ∀x ∈]0; 1[, f (x) = xk .
k=0
5.a. Soit x ∈]0; 1[. En exprimant de deux façons différentes f 0 (x), établir :
X
n−1
x − nx n + (n − 1)xn+1
kx k =
(1 − x)2
k=1
X
n−1
• f étant une fonction polynomiale, elle est dérivable sur ]0; 1[. Et comme f (x) = 1 + xk , on
k=1
obtient, par linéarité de la dérivation :
X
n−1
f 0 (x) = kx k−1
k=1
1 − xn
• Mais on sait aussi, puisque x ∈]0; 1[, que f (x) = . D’où, en dérivant sous cette forme :
1−x
−nx n−1 (1 − x) − (1 − xn )(−1)
f 0 (x) =
(1 − x)2
−nx n−1 + nx n + 1 − xn
=
(1 − x)2
1 − nx n−1 + (n − 1)xn
=
(1 − x)2
En égalant ces deux expressions, on obtient :
X
n−1
1 − nx n−1 + (n − 1)xn
kx k−1 =
(1 − x)2
k=1
Puis, on obtient le résultat voulu en multipliant par x.
X
n−1
x − nx n + (n − 1)xn+1
Conclusion : kx k = .
(1 − x)2
k=1
q − qn+1
Conclusion : E(Xn ) = .
1−q
••◦◦ Exercice 18
On dispose d’une urne U0 contenant deux boules noires et deux boules blanches, et d’urnes U1 , U2 , U3 , . . .
contenant chacune deux boules blanches. On effectue des tirages selon le protocole suivant :
4. Calculer, pour tout entier naturel n, l’espérance de Xn . Déterminer la limite de cette espérance
lorsque n tend vers +∞.
• Soit n ∈ N. Puisque Xn (Ω) = {0; 1; 2}, on a :
Vérification !
E(Xn ) = 0P([Xn = 0]) + 1P([Xn = 1]) + 2P([Xn = 2])
n−1 questions précédentes On vérifie le résultat pour n =
1 0 : puisque X0 est constante
=
2 égale à 2, on a E(X0 ) = 2...
c’est bon !
1 Petite remarque
• Puisque ∈] − 1; 1[, on a : Il est normal que cette es-
2
lim E(Xn ) = 0 pérance tende vers 0... En
n→+∞ fait, la variable aléatoire Xn
va tendre (si l’on définit une
notion de limite de variable
aléatoire...) vers la variable
aléatoire suivant la loi cer-
•••◦ Exercice 19 taine égale à 0.
Un mobile se déplace sur un axe comme suit : à l’instant 0, il est au point 0. Puis, pour tout n ∈ N∗ , si Au bout d’un "grand nombre"
de tirages, les urnes ne
le mobile est à l’instant n sur le point d’abscisse k, alors à l’instant n + 1, il sera sur le point d’abscisse contiendront presque-
k + 1 avec probabilité p ∈]0; 1[, sur le point d’abscisse 0 sinon. On appelle Xn la variable aléatoire égale à sûrement pas de balle noire.
l’abscisse du mobile à l’instant n. On a donc X0 = 0.
1. Donner la loi de X1 .
• X1 (Ω) = {0; 1}
• De plus :
[X1 = 1] ="le mobile est passé du point 0 au point 1" ; d’où P([X1 = 1]) = p
et ainsi : P([X1 = 0]) = 1 − p
2. Démontrer par récurrence que pour tout n ∈ N∗ , Xn (Ω) = J0; nK.
• Initialisation. Pour n = 1.
On a vu, à la question précédente, que X1 (Ω) = {0; 1} : l’initialisation est ainsi vérifiée.
• Hérédité. Soit n ∈ N∗ . Supposons que Xn (Ω) = J0; nK et montrons que Xn+1 (Ω) = J0; n + 1K.
Par hypothèse de récurrence, Xn (Ω) = J0; nK. Donc, à l’instant n, il existe k ∈ J0; nK tel que le mobile se
situe en position k.
Par conséquent, à l’étape n + 1, le mobile peut se déplacer en position 0 ou en position k + 1. Ainsi, les
points possibles pour la position du mobile à l’instant n + 1 sont : 0 et tous les k + 1, avec k ∈ J0; nK.
Autrement dit : Xn+1 (Ω) = J0; n + 1K : l’hérédité est établie.
Conclusion : pour tout n ∈ N∗ , Xn (Ω) = J0; nK.
3. Montrer que pour tout n ∈ N∗ et tout k ∈ J1; nK : P([Xn = k]) = pP([Xn−1 = k − 1]).
Soit n ∈ N∗ et soit k ∈ J1; nK.
D’après la question précédente, Xn−1 (Ω) = J0; n − 1K. Ainsi, la famille [Xn−1 = i] est un système
i∈J0;n−1K
complet d’évènements, et d’après la formule des probabilités totales, on obtient :
X
n−1
P([Xn = k]) = P [Xn−1 = i] ∩ [Xn = k]
i=0
Or, le mobile se déplace seulement de deux façons différentes : soit d’un point i au suivant, soit d’un point i
au point 0. Par conséquent, puisque k , 0, pour être au point k à l’instant n, il faut avoir été au point k − 1 à
l’instant n − 1.
D’où :
∀i , k − 1, [Xn−1 = i] ∩ [Xn = k] = ∅ Pourquoi ?
Et ainsi : Tous les termes de la somme
pour i , k − 1 sont nuls.
P([Xn = k]) = P [Xn−1 = k − 1] ∩ [Xn = k]
= P [Xn−1 = k − 1] × P[Xn−1 =k−1] ([Xn = k])
= pP [Xn−1 = k − 1]
4. En déduire que pour tout n ∈ N∗ , E(Xn ) = pE(Xn−1 ) + p ; puis déterminer l’expression de E(Xn ) en
fonction de n et p.
X
n−1
= p (i + 1)P([Xn−1 = i])
i=0
X
n−1 X
n−1
= p iP([Xn−1 = i]) + p P([Xn−1 = i]) Xn−1 (Ω) = J0; n − 1K
i=0 i=0
= pE(Xn−1 ) + p × 1
5.b. En utilisant la question 3., démontrer que pour tout n ∈ N∗ et tout k ∈ J0; n − 1K, P([Xn =
k]) = p k (1 − p).
Par récurrence... 8 Attention !
La récurrence porte ici sur n...
• Initialisation. Pour n = 1. et le résultat à établir inclut la
Ainsi n − 1 = 0, et donc J0; n − 1K = {0}. quantification en k !
Or, on sait que P([Xn = 0]) = 1 − p d’après la question précédente.
Et comme p 0 (1 − p) = 1 − p, on a bien : P([Xn = 0]) = p 0 (1 − p). L’initialisation est bien vérifiée.
• Hérédité. Soit n ∈ N∗ . Supposons "∀k ∈ J0; n − 1K, P([Xn = k]) = p k (1 − p)" et montrons "∀k ∈
J0; nK, P([Xn+1 = k]) = p k (1 − p)".
Soit k ∈ J0; nK.
Si k = 0, le résultat est valable, d’après la question 5.a.
Si k ∈ J1; nK, d’après la question 3., on a :
P([Xn+1 = k]) = pP([Xn = k − 1]) par hypothèse de récurrence
= pp k−1 (1 − p)
= p k (1 − p)
L’hérédité est établie.
Conclusion : pour tout n ∈ N∗ et tout k ∈ J0; n − 1K, P([Xn = k]) = p k (1 − p).
X
n
5.c. Vérifier que pour tout n ∈ N∗ , P([Xn = k]) = 1.
k=0
•••◦ Exercice 20
Soit n un entier naturel tel que n ≥ 2. On dispose d’un paquet de n cartes C1 , C2 , . . ., Cn que l’on distribue
intégralement, les unes après les autres entre n joueurs J1 , J2 , ... , Jn selon le protocole suivant :
• la première carte C1 est donnée à J1 ;
• la deuxième carte C2 est donnée de façon équiprobable entre J1 et J2 ;
• la troisième carte C3 est donnée de façon équiprobable entre J1 , J2 et J3 ;
• et ainsi de suite, jusqu’à la dernière carte Cn qui est donc distribuée de façon équiprobable entre
les joueurs J1 ,... , Jn .
On suppose l’expérience modélisée sur un espace probabilisé (Ω, P (Ω), P).
On note Xn la variable aléatoire égale au nombre de joueurs qui n’ont reçu aucune carte à la fin de la
distribution.
1. Déterminer Xn (Ω) et calculer P([Xn = 0]) et P([Xn = n − 1]). Petite remarque
• Xn prend des valeurs entières entre 0 et n ; et le joueur J1 a toujours au moins une carte. Par conséquent : Il s’agit de démontrer l’égalité
Xn (Ω) ⊂ J0; n − 1K. de deux ensembles. On pro-
Réciproquement : cède par double-inclusion.
L’évènement [Xn = 0] est réalisé en donnant, pour tout i ∈ J1; nK, la carte Ci au joueur Ji . Pour vérifier que J0; n − 1K ⊂
Xn (Ω), il faut démontrer que
Pour réaliser l’évènement [Xn = 1], il suffit que pour tout i ∈ J1; n − 1K, la carte Ci soit donnée au chaque entier de J0; n − 1K est
joueur Ji et que la carte Cn soit donnée à J1 . dans Xn (Ω). Mais, "k ∈ Xn (Ω)"
Soit k ∈ J2; n − 2K. Pour réaliser l’évènement [Xn = k − 2], il suffit que, pour tout i ∈ J1; n − kK, la carte équivaut à "k est l’image d’au
moins une issue par Xn ", ce
Ci soit donnée au joueur Ji et que pour tout i ∈ Jn − k + 1; n − 1K, la carte Ci soit donnée au joueur J1 . qui équivaut à également
L’évènement [Xn = n − 1] est réalisé en donnant toutes les cartes au joueur J1 . "[Xn = k] est non vide" (on
Ainsi, pour tout k ∈ J1; n − 1K, [Xn = k] , ∅. rappelle que [Xn = k] est en
fait l’ensemble des issues dont
Conclusion : Xn (Ω) = J0; n − 1K. l’image par Xn est égale à k ).
• L’évènement [Xn = 0] est réalisé si, et seulement si, pour tout i ∈ J1; n − 1K, la carte Ci est donnée au
joueur Ji .
Notons justement, pour tout i ∈ J1; nK, l’évènement Ai : "la carte Ci est donnée au joueur Ji .
Par conséquent :
\
n
[Xn = 0] = Ai
i=1
Et ainsi :
n
\
P([Xn = 0]) = P Ai
indépendance des distributions
i=1
Y
n
= P(Ai ) équiprobabilité du choix des joueurs : 1 favorable (Ji ), sur i joueurs au moment de distribuer Ci
i=1
Yn
1
=
i
i=1
1
=
n!
• L’évènement [Xn = n − 1] est réalisé si, et seulement si, pour tout i ∈ J1; n − 1K, la carte Ci est donnée au
joueur J1 .
Notons justement, pour tout i ∈ J1; nK, l’évènement A0i : "la carte Ci est donnée au joueur J1 .
Par conséquent :
\n
[Xn = n − 1] = A0i
i=1
Et ainsi :
n
\
P([Xn = n − 1]) = P Ai
0
indépendance des distributions
i=1
Y
n
= P(A0i ) équiprobabilité du choix des joueurs : 1 favorable (J1 ), sur i joueurs au moment de distribuer Ci
i=1
Yn
1
=
i
i=1
1
=
n!
4.b. Soient i, j ∈ J1; nK, avec i , j . Les évènements [Bi = 1] et [Bj = 1] sont-ils indépendants ?
Quitte à échanger i et j (rôles symétriques), on peut supposer que i < j .
D’après la question précédente, on a :
(i − 1)(j − 2)
P [Bi = 1] ∩ [Bj = 1] =
n(n − 1)
Et, d’après la question 2. :
i −1 j −1
P([Bi = 1]) = ; P([Bj = 1]) =
n n
• Si i = 1 :
Alors on a : Petite remarque
P [B1 = 1] ∩ [Bj = 1] = 0 = P [B1 = 1]) × P([Bj = 1]
On sait que [B1 = 1] = ∅ et
Dans ce cas, les évènements [Bi = 1] et [Bj = 1] sont indépendants. que l’évènement impossible
est indépendant de tous les
• Si i , 1 : autres... C’est cohérent !
Alors :
[Bi = 1] et [Bj = 1] sont indépendants ⇐⇒ P [Bi = 1] ∩ [Bj = 1] = P([B1 = 1]) × P([Bj = 1])
(i − 1)(j − 2) (−1)(j − 1)
⇐⇒ = i − 1 , 0, n , 0
n(n − 1) n2
j −2 j −1
⇐⇒ n , 0, n , 1
n−1 n
⇐⇒ n(j − 2) = (n − 1)(j − 1)
⇐⇒ nj − 2n = nj − j − n + 1
⇐⇒ j = n + 1
Or on sait que j ∈ J1; nK, donc j , n + 1. Par équivalences, on a ainsi :
P [Bi = 1] ∩ [Bj = 1] , P [B1 = 1]) × P([Bj = 1]
Les évènements [Bi = 1] et [Bj = 1] ne sont pas indépendants.
Conclusion : pour tout j ∈ J2; nK, les évènements [B1 = 1] et [Bj = 1] sont indépendants
pour tous i, j ∈ J2; nK tels que i , j , les évènements [Bi = 1] et [Bj = 1] ne sont pas indépendants.
•••◦ Exercice 21
On considère une urne contenant n + 1 boules numérotées de 0 à n. On y effectue une suite de tirages
d’une boule à la fois avec remise. On définit la suite de variables aléatoires (Xk )k∈N∗ de la manière
suivante :
• X1 est une variable aléatoire constante égale à 1,
• pour k ∈ J2; +∞J, Xk = 1 si le numéro obtenu au k-ième tirage n’a pas déjà été obtenu au cours des
tirages précédents, et Xk = 0 sinon.
1. Déterminer la loi de X2 .
• Remarquons déjà que X2 (Ω) = {0; 1}.
• Ensuite :
l’évènement [X2 = 1] est réalisé si, et seulement si, le numéro obtenu au deuxième tirage n’a pas été obtenu au premier tirage
si, et seulement si, on pioche une des n balles non tirées au premier tirage
Par équiprobabilité du tirage des boules, on a ainsi :
n
P([X2 = 1]) =
n+1
• Puisque X2 (Ω) = {0; 1} et que [X2 = 0], [X2 = 1] est alors un système complet d’évènements, on a :
n 1
P([X2 = 0]) = 1 − =
n+1 n+1
Par conséquent :
[
\
n k−1
P([Xk = 1]) =
P Bi,j ∩ Bk,j
pour tous j, j 0 ∈ J0; nK, les évènements Bk,j et Bk,j 0 sont incompatibles...
j =0 i=1
X n \
k−1
= P Bi,j ∩ Bk,j
tirages avec remise, d’où indépendance des évènements
j =0 i=1
X n Y
k−1
= P(Bi,j ) P(Bk,j )
équiprobabilité des choix de la boule
j =0 i=1
X n Y
k−1 n 1
=
n + 1 n + 1
j =0 i=1
X n
n k−1 1
=
n+1 n+1
j =0
n k−1 1
= (n + 1)
n+1 n+1
n k−1
=
n+1
n k−1
Conclusion : P([Xk = 1]) = .
n+1 Petite remarque
AUTRE MÉTHODE POUR CALCULER CETTE PROBABILITÉ On procède ici à rebours...
Ensuite, commençons par remarquer que, puisque les tirages sont effectués avec remise, il y a toujours On peut, puisque pour tous
n + 1 boules dans l’urne. évènements A1 , A2 , ..., Ak ,
on a : A1 ∩ A2 ∩ ... ∩ Ak =
Aussi : Ak ∩ Ak−1 ∩ .... ∩ A1 .
l’évènement [Xk = 1] est réalisé si, et seulement si, le numéro obtenu au k-ième tirage n’a pas été obtenu aux précédents tirages
si, et seulement si, pour tout i ∈ J1; k − 1K, le numéro obtenu au i-ème tirage n’est pas celui obtenu au k-ièm
si, et seulement si, pour tout i ∈ J1; k − 1K, on pioche au i-ième tirage une des n balles non tirées au k-ième t
Par indépendance des tirages (ceux-ci étant effectués avec remise), puis équiprobabilité des boules tirées :
n k−1
P([Xk = 1]) =
n+1
• Puisque Xk (Ω) = {0; 1}, on a :
E(Xk ) = 0P([Xk = 0]) + 1P([Xk = 1])
= P([Xk = 1])
n k−1
=
n+1
n k−1
Conclusion : E(Xk ) = .
n+1
3. 3.a. Montrer :
(n − 1)i−1 nj −i
∀i < j, P [Xi = 1] ∩ [Xj = 1] =
(n + 1)j −1
Soient i, j ∈ J1; nK tels que i < j .
En reprenant les évènements définis à la question précédente et en notant, pour tous N, N 0 ∈ J0; nK et
(n − 1)i−1 nj −i
P([Xi Xj = 0]) = 1 −
(n + 1)j −1
4. Soit N ∈ J2; +∞J. On note ZN la variable aléatoire égale au nombre de numéros distincts obtenus
au cours des N premiers tirages. Exprimer ZN en fonction des Xk et en déduire son espérance.
X
N
• De façon immédiate, on a ZN = Xi .
i=1
• Ensuite, on avait obtenu :
n k−1
∀k ∈ J2; +∞J, E(Xk ) =
n+1
Et on sait que X1 est constante égale à 1, donc E(X1 ) = 1.
n 1−1
Puisque = 1, ces deux cas peuvent se regrouper :
n+1
n k−1
∀k ∈ N∗ , E(Xk ) =
n+1
ω ∈ [1A = 1] ⇐⇒ ω ∈ A
D’où :
[1A = 1] = A
Par conséquent :
P([1A = 1]) = P(A)
Et ainsi :
P([1A = 0]) = 1 − P(A)
• On en déduit :
E(1A ) = 0P([1A = 0]) + 1P([1A = 1])
= P(A)
Remarque
AUTRE MÉTHODE POSSIBLE :
Soit ω ∈ Ω.
Si ω ∈ A ∪ B.
⇝ Alors, par définition, 1A∪B (ω) = 1.
⇝ Aussi, remarquons que A ∪ B = A ∩ B ∪ B ∩ A ∪ A ∩ B ; et que c’est une union de trois évènements
deux à deux incompatibles... Trois cas se présentent alors :
— Si ω ∈ A ∩ B.
Alors par définition, 1A∩B (ω) = 1. Mais on a aussi ω ∈ A et ω ∈ B, donc 1A (ω) = 1 et 1B (ω) = 1.
Ce qui donne :
1A (ω) + 1B (ω) − 1A∩B (ω) = 1 + 1 − 1 = 1
— Si ω ∈ A ∩ B.
Alors on a 1A (ω) = 1,1B (ω) = 0, et puisque ω < B, 1A∩B (ω) = 0. Ce qui donne :
1A (ω) + 1B (ω) − 1A∩B (ω) = 1 + 0 − 0 = 1
4. Soit A un évènement tel que 0 < P(A) < 1. Si X est une variable aléatoire telle que X(Ω) est fini, on
définit la variable aléatoire, notée E A (X), par : 8 Attention !
1 1
1 1 E(X1A ) et E(X1A )
P(A) P(A)
E A (X) = E(X1 A ) × 1 A + E(X1 A ) × 1 A
P(A) P(A) sont des réels !
Donc EA (X) est bien une
variable aléatoire : c’est une
combinaison linéaire des
4.a. Déterminer la loi de la variable aléatoire E A (1 A ). variables aléatoires 1A et 1A .
On a déjà :
1 1
EA (1A ) = E(1A × 1A ) × 1A + E(1A × 1A ) × 1A d’après les questions précédentes : 1A × 1A = 1A∩A = 1A et 1A × 1A = 1A∩A = 1∅ = 0
P(A) P(A)
1 1
= E(1A ) × 1A + E(0) × 1A question 2. : E(1A ) = P(A)
P(A) P(A)
= 1A + 0
= 1A
4.c. Soit X une variable aléatoire prenant un nombre fini de valeurs. Démontrer :
E E A (X) = E(X) ; E A X1 A = E A (X) × 1 A
• Puisque 1A et 1A sont des variables aléatoires discrètes finies, EA (X) est une combinaison linéaire
de variables aléatoires discrètes finies : elle est donc également discrète finie, et admet ainsi une
espérance. On a :
!
1 1
E EA (X) = E E(X1A ) × 1A + E(X1A ) × 1A
P(A) P(A) linéarité de l’espérance
1 1
= E(X1A ) × E(1A ) + E(X1A ) × E(1A ) question 2. : E(1A ) = P(A)
P(A) P(A)
1 1
= E(X1A ) × P(A) + E(X1A ) × P(A)
P(A) P(A)
= E(X1A ) + E(X1A ) linéarité de l’espérance
= E(X(1A + 1A )) question 3. : 1A + 1A = 1
= E(X)
• Par définition, on a :
1 1
EA X1A = E(X1A 1A ) × 1A + E(X1A 1A ) × 1A 12A = 1A et 1A 1A = 0
P(A) P(A)
1
= E(X1A ) × 1A
P(A)
D’autre part :
!
1 1
EA (X) × 1A = E(X1A 1A ) × 1A + E(X1A 1A ) × 1A 1A
P(A) P(A)
1 1
= E(X1A 1A ) × 1A 1A + E(X1A 1A ) × 1A 1A 12A = 1A et 1A 1A = 0
P(A) P(A)
1
= E(X1A ) × 1A
P(A)
On a bien :
EA X1A = EA (X) × 1A