Correction TD
Correction TD
XEtudier la hauteur de la masse d’eau d’un barrage, que l’on mesure périodiquement
(enfin de chaque mois par exemple).
Si M est le niveau max du barrage : Ω = [0, M ]
Solution de l’exercice 2
Construire des exemples simples de tribus d’événements qu’on peut associer aux espaces
fondamentaux suivants :
XΩ1 = {1, 2, 3, a, b} où Card(Ω) = 5 : T1 = {∅, {1, 2}, {3, a, b}, Ω1 }
1
XΩ4 = {1, 2} × {1, 2} : T4 = {∅, {(1, 1), (1, 2)}, {(2, 1), (2, 2)}, Ω4 }
Solution de l’exercice 3
Produire une probabilité (un cas simple) sur chacun des espaces probabilisables
(Ωi , P(Ωi )), i = 1, 2, . . . , 6 de l’exercice précédent.
b−a
XSur (Ω3 , P(Ω3 )) : P3 ([a, b]) = 1−0 = b − a, pour tout segment [a, b] ⊂ [0, 1]. Cela
marche même si le segement est ouvert ou semi-ouvert.
XSur (Ω4 , P(Ω4 )) : P4 [(i, j)] = 1/4, ∀ (i, j) ∈ Ω4 (équiprobabilité par exemple).
´
1
XSur (Ω5 , P(Ω5 )) : P5 (k) = 2k+1
, ∀ k ∈ IN
Solution de l’exercice 4.
1o )
Ω = {(P ile, 1), (P ile, 2), (P ile, 3), (P ile, 4), (P ile, 5), (P ile, 6),
(F ace, 1), (F ace, 2), (F ace, 3), (F ace, 4), (F ace, 5), (F ace, 6)}
2o )
A = {(P ile, 1), (P ile, 2), (P ile, 3), (P ile, 4), (P ile, 5), (P ile, 6)}
B = {(P ile, 3), (F ace, 3)}
C = Ω − {(P ile, 3)}
D = {(P ile, 1), (P ile, 2), (P ile, 4), (P ile, 5), (P ile, 6)}
3o )
E = {(P ile, 2), (P ile, 4), (P ile, 6), (F ace, 1), (F ace, 3)} P (E) = 5/12 (il y a équiprobabilité
dans Ω fini)
4o )
A ∩ B = {(P ile, 3)}, donc P (A ∩ B) = 1/12
A\B = {(P ile, 1), (P ile, 2), (P ile, 4), (P ile, 5), (P ile, 6)}, donc P (A\B) = 5/12 Calcu-
ler les probabilités des événements A ∩ B, A\B.
P (A\B) 6= P (A) − P (B) car on n’a pas A ⊂ B.
Exercice 5.
Soit Ω = {a, b, c} un espace fondamental d’une expérience aléatoire (Card(Ω) = 3).
2
Trouver, quand cela est possible, la loi ou les lois de probabilités, chargeant tous les
points de Ω sur (Ω, P(Ω)) dans chacun des cas suivants :
(1) P ({a, b}) = 1/4
(2) P ({a, b}) = P ({b, c}) = 1/4
(3) P ({a, b}) = P ({b, c}) = 3/4
Solution de l’exercice 5.
• (1) Nous avons P (a) + P (b) = 1/4. D’autre part P (a) + P (b) + P (c) = 1. Ceci nous
donne P (c) = 3/4. En fixant P (a) = p, on a P (b) = 1/4 − p qui doit être dans ]0, 1[.
Donc l’ensemble des solutions (de probabilités) vérifiant (1) est donné par : P (a) = p ∈
]0, 1/4[, P (b) = 1/4 − p et P (c) = 3/4. Nous avons donc une infinité de solutions : pour
chaque choix de p ∈]0, 1/4[, nous avons une probabilité vérifiant (1).
• (2) Nous avons P (a) + P (b) = 1/4, P (b) + P (c) = 1/4 et P (a) + P (b) + P (c) = 1. Ces
équations implique que P (b) = −1/2. Donc il n’existe pas de probabilité P vérifiant (2).
• (3) Nous avons P (a) + P (b) = 3/4, P (b) + P (c) = 3/4 et P (a) + P (b) + P (c) = 1. Ces
équations nous donnent P (a) = 1/4, P (b) = 1/2 et P (c) = 1/4. Nous avons donc une
solution unique P qui vérifie (3).
Exercice 6.
Soit (Ω, T , P ) un espace probabilisé et soient A et B deux éléments de T tels que
P (A) = 1/4, P (B) = 1/3 et P (A ∪ B) = 23/60.
Calculer P (A/B) ; P (Ā/B) ; P (A ∩ B/B) ; P (A ∩ B̄/B) ; P [(A ∪ B)/(A ∩ B̄)] et
P [(Ā ∩ B)/(Ā ∪ B)].
Solution de l’exercice 6.
3
P (Ā ∪ B) = 1 − P (A ∩ B̄)
= 1 − P (A)P (B̄/A)
= 1 − P (A)(1
− P (B/A))
= 1 − P (A) 1 − P (B)P (A/B)
P (A)
= 1 − P (A) + P (B)P (A/B)
= 1 − (1/4) + (1/3)(3/5)
= 19/20
Nous avons donc
P (B)P (Ā/B) (1/3)(2/5) 8
P [(Ā ∩ B)/(Ā ∪ B)] = = =
P (A) − P (B)P (A/B) (19/20) 57
Exercice 7.
Soit E = {e1 , . . . , en } un ensemble à n éléments (n ≥ 1) et soit p ∈ IN ∗ .
1o ) Rappeler les quantités de dénombrement suivantes :
Xle nombre de façons de choisir successivement p éléments de E, avec la possibilité
de répéter les éléments choisis
Xle nombre Apn de façons de choisir p éléments distincts de E (p ≤ n)
Xle nombre de façons d’arranger les p éléments d’une partie A de E (1 ≤ p ≤ n).
Xle nombre Cnp de parties de E, à p, (1 ≤ p ≤ n) éléments.
2 ) Donner la relation entre Apn et Cnp .
o
Solution de l’exercice 7.
1o )
Xle nombre de façons de choisir successivement p éléments de E, avec la possibilité
de répéter les éléments choisis est : np (chacune des p positions peut être occupée
par tout élément de E)
Xle nombre Apn de façons de choisir p éléments distincts de E
La différence par rapport au cas précédent c’est que maintenant, nous n’avons pas le
droit de répéter aucun des p éléments à choisir : la première position peut être occupée de
n façons différentes, la second position de (n − 1) façons différentes, la troisième position
de (n − 2) façons différentes, ..., la pième position de (n − (p − 1)) façons différentes.
Donc au total, on peut construire n(n − 1)(n − 2) · · · (n − (n − (p − 1))) vecteurs de
même taille p dont les composantes sont des éléments de E qui sont toutes distinctes.
En conclusion, le nombre cherché est donc Apn = n(n − 1)(n − 2) · · · (n − (n − (p − 1)))
qui est le nombre de façons de choisir ou d’arranger p éléments parmi n éléments sans
répétition. Il est clair ici qu’on doit avoir p ≤ n. Ce nombre peut être écrit aussi
n!
Apn =
(n − p)!
4
Xle nombre de façons d’arranger les p éléments d’une partie A de E (1 ≤ p ≤ n).
Nous avons p éléments distincts. La question est de sortir toutes les configurations (ar-
rangements) possibles : le nombre de tels arragements est le nombre de permutations de
p éléments, il est égal à p!.
2o ) Nous avons
Apn n!
Cnp = =
p! p!(n − p)!
3o )
XInterpretation de Cnp = Cnn−p : le cardinal de l’ensemble des parties p éléments est
égale au cardinal des parties à n − p éléments, puisque qu’à chaque partie à p éléments
correspond la partie (son complémentaire) à n − p éléments (il y a une bijection entre
les deux familles de parties, les parties et leurs complémentaires).
p p−1
XInterpretation de Cnp = Cn−1 + Cn−1 : ici il s’agit de fixer un élément ek de E et
s’intéresser aux parties à p éléments (qui sont en nombre de Cnp ) en les disposant en
p−1
deux familles, celles contenant ek qui sont en nombre de Cn−1
´ et celles ne contenant pas
p p p−1 p
ek qui sont en nombre Cn−1 . D’où le résultat Cn = Cn−1 + Cn−1 .
Exercice 8.
1o ) Dans un jeu à 32 cartes, on tire trois cartes au hasard l’une après l’autre
et sans remise. Quelle est la probabilité que la troisième carte tirée
soit un As.
2 ) On refait la même expérience qu’en 1o ) mais cette fois on remet la carte
o
Solution de l’exercice 8.
Nous allons adopter les notations suivantes :
A : As au ième tirage. Āi : pas d’As au ième tirage
Ri : Roi au ième tirage. R̄i : pas de Roi au ième tirage.
Ci : Carte différente de Roi et différente d’As au ième tirage.
1o ) La probabilité demandée (la notation ABC désigne A ∩ B ∩ C) est :
5
qui peut s’écrire
4 3 2 4 28 3 28 4 3 28 27 4
= + + +
32 31 30 32 31 30 32 31 30 32 31 30
3720
= = 0.125
29760
En utilisant les notations de l’exercice 7, la probabilité p ainsi calculée peut s’écrire aussi
q = P [R1 A2 C3 ∪ R1 C2 A3 ∪ A1 R2 C3 ∪ A1 C2 R3 ∪ C1 R2 A3 ∪ C1 A2 R3 ]
= P (R1 A2 C3 ) + P (R1 C2 A3 ) + P (A1 R2 C3 ) + P (A1 C2 R3 ) + P (C1 R2 A3 ) + P (C1 A2 R3 )
= 6P (R1 A2 C3 ) (car le tirage est avec remise)
= 6P (R1 )P (A2 )P (C3 ) (independence, car tirage est avec remise)
4 4 24
= 6
32 32 32
Exercice 9.
Une population est étudiée suivant deux caractères : le poids et la taille. La ventilation
des individus est effectuée selon trois classes de tailles T1 , T2 et T3 et deux classes de
poids P1 et P2 . On donne P (T1 ) = 0.2 et P (T2 ) = 0.5.
A l’intérieur de chaque classe de taille, la probabilité, pour un individu, d’appartenir à la
classe de poids P1 est la suivante : P (P1 /T1 ) = 0.6; P (P1 /T2 ) = 0.45 et P (P1 /T3 ) = 0.35.
1o ) Donner les probabilités d’appartenance à chaque classe de taille.
2o ) Calculer les probabilités d’appartenance à chaque classe de poids.
En déduire les probabilités d’appartenance à chaque classe de taille
à l’intérieur de la classe de poids P1 .
6
Solution de l’exercice 9.
1o ) P (T1 ) = 0.2 et P (T2 ) = 0.5, donc P (T3 ) = 1 − (P (T1 ) + P (T2 )) = 0.3
2o ) L’ensemble Ω de tous les événements possibles peut être vu de deux façons différentes.
On peut le voir comme l’ensemble des individus groupés selon leurs tailles ou comme
l’ensemble des individus groupés selon leurs poids. Nous avons donc
Ω = T1 ∪ T2 ∪ T3 = P 1 ∪ P 2
P (P1 ) = P (P1 ∩ Ω)
= P [P1 ∩ (T1 ∪ T2 ∪ T3 )]
= P [(P1 ∩ T1 ) ∪ (P1 ∩ T2 ) ∪ (P1 ∩ T3 )]
= P (P1 ∩ T1 ) + P (P1 ∩ T2 ) + P (P1 ∩ T3 )
= P (T1 )P (P1 /T 1) + P (T2 )P (P1 /T 2) + P (T3 )P (P1 /T 3)
= 0.2 × 0.6 + 0.5 × 0.45 + 0.3 × 0.35
= 0.45
Donc P (P2 ) = 1 − P (P1 ) = 1 − 0.45 = 0.55.
0.5 × 0.45
= = 0.5
0.45
P (T3 )P (P1 /T3 )
P (T3 /P1 ) = , (Formule de Bayes)
P (T1 )P (P1 /T1 ) + P (T2 )P (P1 /T2 ) + P (T3 )P (P1 /T3 )
0.3 × 0.35
= ' 0.23
0.45
Exercice 10.
Considérons deux urnes, U1 et U2 . L’urne U1 contient deux boules rouges et trois boules
blanches et l’urne U2 contient trois boules rouges et deux boules blanches. On choisit au
hasard l’une des deux urnes et on effectue, dans l’urne choisie, 2 tirages successifs sans
remise.
Calculer les probabilités des événements suivants :
E1 = hObtenir deux boules blanchesi, E2 = hObtenir au moins une boule rougei,
E3 = hObtenir une boule blanche et une boule rougei.
7
probabilité 1/2.
P (E1) = P (E1 ∩ Ω)
= P (E1 ∩ (U1 ∪ U2 ))
= P (E1 ∩ U1 ) + P (E1 ∩ U2 )
= P (U1 )P (E1/U1 ) + P (U2 )P (E1/U2 )
132 121
= + (tirage de 2 boules sans remise)
254 254
1
=
5
On adopte les notations suivantes :
Bi pour désigner l’obtention d’une boule blanche au ième tirage.
Ri pour désigner l’obtention d’une boule rouge au ième tirage.
Nous avons
P (E2) = P [(R1 ∩ B2 ) ∪ (R1 ∩ R2 ) ∪ (B1 ∩ R2 )]
= P (R1 ∩ B2 ) + P (R1 ∩ R2 ) + P (B1 ∩ R2 )
Maintenant
P (R1 ∩ B2 ) = P (U1 )P (R1 ∩ B2 /U1 ) + P (U2 )P (R1 ∩ B2 /U2 )
123 132
= +
254 254
3
=
10
P (R1 ∩ R2 ) = P (U1 )P (R1 ∩ R2 /U1 ) + P (U2 )P (R1 ∩ R2 /U2 )
121 132
= +
254 254
1
=
5
P (B1 ∩ R2 ) = P (U1 )P (B1 ∩ R2 /U1 ) + P (U2 )P (B1 ∩ R2 /U2 )
132 123
= +
254 254
3
=
10
3 1 3 4
Donc P (E2) = + + = .
10 5 10 5
Nous avons
3 3 3
P (E3) = P [(B1 ∩ R2 ) ∪ (R1 ∩ B2 )] = P (B1 ∩ R2 ) + P (R1 ∩ B2 ) = + =
10 10 5
8
Exercice 11.
On tire, avec remise, une boule dans une urne contenant n1 boules blanches et n2 boules
rouges.
1o ) Soit X le nombre de tirages nécessaires à l’obtention de la première boule
blanche.
1.a) Déterminer la loi de probabilités de la variable aléatoire X.
1.b) Calculer son espérance IE(X) et sa variance σ 2 (X).
2o ) Soit maintenant Y le nombre de boules blanches obtenues durant n
tirages successifs (n ≥ 1).
2.a) Déterminer la loi de probabilités de la variable aléatoire Y .
2.b) Calculer son espérance IE(Y ) et sa variance σ 2 (Y ).
2.c) Que représente la variable aléatoire Z = n − Y ? Déterminer sa loi
de probabilités et ses moments d’ordre un et deux.
π(k) = P (X = k)
= P (X1 = 0, X2 = 0, . . . , Xk−1 = 0, Xk = 1) (succes boule blanche au kieme tirage)
= P (X1 = 0)P (X2 = 0) · · · P (Xk−1 = 0)P (Xk = 1) (par independance)
= (1 − p)k−1 p
Donc
π(k) = (1 − p)k−1 p, k ∈ IN ∗
n1
Ce qui signifie que X ∼ Geom(p), avec p = .
n1 + n2
9
1.b)
+∞
X
IE(X) = kπ(k)
k=1
+∞
X
= k(1 − p)k−1 p
k=1
+∞
X 0
= −p (1 − p)k (derivee en p)
k=1 !0
+∞
X
= −p (1 − p)k
k=1 !0
+∞
X
= −p (1 − p)k − 1
k=0 0
1
= −p −1
p
−1
= −p
p2
1
=
p
1
Donc IE(X) = .
p
+∞
X
IE(X(X − 1)) = k(k − 1)π(k)
k=1
+∞
X
= k(k − 1)(1 − p)k−1 p
k=2
+∞
X 00
= p(1 − p) (1 − p)k (derivee deux fois en p)
k=2 !00
+∞
X
k
= p(1 − p) (1 − p)
k=2 !00
+∞
X
= p(1 − p) (1 − p)k + p − 2
k=0 00
1
= p(1 − p) +p−2
p
2
= p(1 − p) 3
p
2(1 − p)
=
p2
Nous avons donc
2(1 − p)
2
= IE(X(X − 1)) = IE(X 2 − X) = IE(X 2 ) − IE(X).
p
10
D’où
2(1 − p) 2(1 − p) 1 2−p
IE(X 2 ) = 2
+ IE(X) = 2
+ = .
p p p p2
La variance de X est donc
2
2 2 2−p 2 1 1−p
σ (X) = IE(X ) − (IE(X)) = − =
p2 p p2
2o )
2; a) La variable aléatoire Y est à valeurs dans Y = {0, 1, . . . , n}. C’est une variable
n1
binômiale de paramètre n et p = : Y ∼ B(n, p). Donc la loi de Y est :
n1 + n2
n X
n
!
X
IE(Y 2 ) = IE Xi Xj
i=1 j=1
n X
X n
= IE(Xi Xj )
i=1 j=1
n
X n
X n
X
= IE(Xi2 ) + IE(Xi Xj )
i=1 i=1 j=1,j6=i
n
X n
X n
X
= IE(Xi2 ) + IE(Xi )IE(Xj ) (independance)
i=1 i=1 j=1,j6=i
n
X n
X n
X
= p+ p2
i=1 i=1 j=1,j6=i
= np + n(n − 1)p2
Donc la variance de Y est :
11
n2
n et q = (chance d’obtenir une boule rouge au ième tirage). Nous avons donc
n1 + n2
Z ∼ B(n, q).
D’où
IE(Z) = nq, IE(Z 2 ) = nq + n(n − 1)q 2 , σ 2 (Z) = nq(1 − q)
+∞
X αak−1
1 =
k=0
(1 + a)k+1
+∞ k
α X a
=
a(1 + a) k=0 1 + a
α 1
= a
a(1 + a) 1 − 1+a
α
=
a
D’où α = a. Donc k
1 a
π(k) = , k ∈ IN
1+a 1+a
+∞ k
1 X a
IE(X) = k
1 + a k=0 1+a
+∞ k
1 X a
= k
1 + a k=1 1+a
+∞ k−1
a X a
= k
(1 + a)2 k=1 1+a
+∞ k−1
X a 1
= a k
k=1
1+a (1 + a)2
12
+∞ k !0
X a
IE(X) = a (derivee en a)
k=1
1+a
+∞ k !0
X a
= a
k=1
1+a
+∞ k !0
X a
= a −1
k=0
1+a
= a (1 + a − 1)0
= a
Donc IE(X) = a.
+∞ k
1 X a
IE(X(X − 1)) = k(k − 1)
1 + a k=2 1+a
+∞
1 X a
= k(k − 1)uk avec u = ∈]0, 1[ car a > 0
1 + a k=2 1+a
+∞
u2 X
= k(k − 1)uk−2
1 + a k=2
+∞
u2 X k 00
= u
1 + a k=2
+∞
!00
u2 X
= uk
1 + a k=2
+∞
!00
u2 X
= uk − 1 − u
1 + a k=0
00
u2
1
= −1−u car 0 < u < 1
1 + a 1 − u
u2 2
=
1 + a (1 − u)3
a
= 2a2 en remplaçant u = 1+a
Donc
2a2 = IE(X(X − 1)) = IE(X 2 ) − IE(X)
D’où
IE(X 2 ) = 2a2 + IE(X) = 2a2 + a
Par conséquent
13
Exercice 13.
Soit X une variable aléatoire réelle continue f (x) = e−λ|x| , x ∈ IR
1o ) Calculer la constante λ,
2o ) Calculer IE(X) et V ar(X),
3o ) Calculer la fonction de répartition F de X et représenter son allure de graphe,
4o ) Calculer la probabilité IP (−1 < X < 1 ou X > 2),
∗
5o ) Soit α ∈ IR+ et β ∈ IR.
5.1) Exprimer la probabilité IP (X 2 < α) en fonction de F et α ,
5.2) Exprimer la probabilité IP (|X| < α | X > β) en fonction de F, α et β.
5o ) α > 0, β ∈ IR
14
√ √ √ √
5.1) IP (X 2 < α) = IP (− α < X < α) = F ( α) − F (− α).
5.2)
1
IP (|X| < α|X > β) = IP (−α < X < α, X > β)
IP (X > β)
1
< X < α) si β ≤ −α
IP (X>β)
IP (−α
1
= IP (X>β)
IP (β < X < α) si −α ≤ β ≤ α
si β ≥ α
0
Donc
1
− F (−α)) si β ≤ −α
1−F (β)
(F (α)
1
IP (|X| < α|X > β) = 1−F (β)
(F (α) − F (β)) si −α ≤ β ≤ α
si β ≥ α
0
Exercice 14.
Soit X une variable aléatoire continue dont le graphe de la fonction densité de probabilité
forme un triangle isocèle avec l’axe Ox et de base [−1, 1].
1o ) Calculer la probabilité P (X 2 < 14 , X < 41 ).
2o ) Déterminer la loi de probabilité de la variable aléatoire Y = |X|.
15
1o )
IP (X 2 < 14 , X < 14 ) = IP (− 12 < X < 21 , X < 14 )
= IP (− 12 < X < 41 )
Z 1/4
= f (x)dx
−1/2
Z 0 Z 1/4
= x + 1dx + 1 − xdx
−1/2 0
0 1/4
x2 x2
= +x + x−
2 −1/2 2 0
1 1 1 1 19
= − + + − = ' 0.59
8 2 4 32 32
2o ) Soit G la fonction de répartition de la v.a. Y = |X|. Soit t ∈ IR, nous avons
G(t) = IP (Y ≤ t) = IP (|X| ≤ t)
Donc
0 si t ≤ 0
G(t) = IP (|X| ≤ t) =
IP (−t ≤ X ≤ t) si t ≥ 0
Maintenant Z t
f (x)dx si 0 ≤ t ≤ 1
IP (−t ≤ X ≤ t) = Z−t1
f (x)dx si t ≥ 1
−1
Ce qui donne
0 t
Z Z
x + 1dx + 1 − xdx si 0 ≤ t ≤ 1
IP (−t ≤ X ≤ t) = −t 0
1 si t ≥ 1
D’où
0 t
Z Z
x + 1dx + 1 − xdx si 0 ≤ t ≤ 1
IP (−t ≤ X ≤ t) = −t 0
1 si t ≥ 1
−t2 + 2t si 0 ≤ t ≤ 1
IP (−t ≤ X ≤ t) =
1 si t ≥ 1
En remplaçant mantenant dans G(t), nous obtenons
0 si t ≤ 0
2
G(t) = IP (|X| ≤ t) = −t + 2t si 0 ≤ t ≤ 1
1 si t ≥ 1
16
que nous pouvons écrire sous une forme condensée :
G(t) = (−t2 + 2t)11[0,1] (t) + 11]1,+∞[ (t), t ∈ IR
La fonction G est dérivable sur IR − 0, 1. Donc la densité de probabilité g de la v.a. Y
peut être déduite de G ainsi :
g(x) = G0 (x), x ∈ IR − {0, 1},
qui donne
g(x) = (2 − 2x)11[0,1] (x), x ∈ IR − {0, 1},
que l’on peut étendre par continuité aux points 0 et 1 ce qui ne changera rien au calcul
de probabilité.
g(x) = (2 − 2x)11[0,1] (x), x ∈ IR
Vous pouvez vérifier que g est bien une densité de probabilité.
Exercice 15
Considérons un couple aléatoire réel discret indépendant (X, Y ) tel que X obéit à une
loi binomiale B(3, p) et Y obéit à une loi de Bernoulli B(1, q), où p et q sont dans ]0, 1[.
Pour simplifier, on propose d’adopter les deux notions suivantes : p̄ = 1 − p et q̄ = 1 − q.
1o ) Dresser le tableau qui résume la loi jointe et les lois marginales du couple (X, Y ),
2o ) Calculer la covariance Cov(X, Y ) en fonction de p et q et en déduire q
3o ) Soit S la variable aléatoire définie par S = X + Y .
3.1) Donner l’ensemble des valeurs possibles de S et dresser le tableau de la loi de S,
3.2) Calculer la variance V ar(S) et identifier la loi de S lorsque p = q.
Solution de l’exercice 15
X ∼ B(3, p), Y ∼ B(1, q) et (X, Y ) indépendant. p, q ∈]0, 1[, p̄ = 1 − p et q̄ = 1 − q.
1o ) X est à valeurs dans X = {0, 1, 2, 3} et Y est à valeurs dans Y = {0, 1}. Comme
(X, Y ) est indépendant, alors la loi jointe π = (πi,j )(i,j)∈X ×Y est le produit des lois
marginales πX = (πi,. )i∈X et πY = (π.,j )j∈Y . Nous avons donc le tableau suivant :
Y 0 1
X πX
0 (1 − q)C30 (1 − p)3 qC30 (1 − p)3 C30 (1 − p)3
1 (1 − q)C31 p(1 − p)2 qC31 p(1 − p)2 C31 p(1 − p)2
2 (1 − q)C32 p2 (1 − p) qC32 p2 (1 − p) C32 p2 (1 − p)
3 (1 − q)C33 p3 qC33 p3 C33 p3
πY 1−q q 1
Y 0 1
X πX
0 q̄ p̄3 q p̄3 p̄3
1 3q̄pp̄2 3qpp̄2 3pp̄2
2 3q̄p2 p̄ 3qp2 p̄ 3p2 p̄
3 q̄p3 qp3 p3
πY q̄ q 1
17
2o )
Cov(X, Y ) = IE(XY ) − IE(X)IE(Y ) = IE(XY ) − 3pq
Calcul de IE(XY )
3 X
X 1 3
X
IE(XY ) = ijπi,j = iπi,1 = 3q̄pp̄2 + 6q̄p2 p̄ + 3q̄p3
i=0 0 i=1
Donc
Cov(X, Y ) = 3q̄pp̄2 + 6q̄p2 p̄ + 3q̄p3 − 3pq = 3p(1 − 2q)
Comme (X, Y ) est indépendant, alors Cov(X, Y ) = 0, d’où q = 1/2 car p 6= 0.
3o ) S = X + Y
3.1) L’ensemble des valeurs possibles de S est S = {0, 1, 2, 3, 4}.
La loi de S est déduite de la loi jointe de (X, Y ) :
S 0 1 2 3 4
πS q̄ p̄3 q p̄3 + 3q̄pp̄2 3qpp̄2 + 3q̄p2 p̄ 3qp2 p̄ + q̄p3 qp3
3.2) Comme (X, Y ) est indépendant, alors V ar(S) = V ar(X) + V ar(Y ) = 3pp̄ + q q̄.
Si p = q, S ∼ B(4, p), car c’est la somme d’une binômiale B(3, p) et d’une
Bernoulli B(1, p) qui sont indépendantes.
En conclusion S ∼ B(4, 1/2) car p = q = 1/2.
Exercice 16
Considérons une pièce de monnaie telle que P (P ile) = p, (0 < p < 1). On lance cette
pièce trois fois de suite.
1o ) Donner l’espace fondamental, Ω, associé à cette expérience.
2o ) Considérons les deux variables aléatoires X et Y définies, pour ω ∈ Ω par :
X(ω) = nombre de séquences PileFace dans ω,
Y (ω) = nombre de séquences FacePile dans ω.
Montrer que X et Y sont des variables aléatoires de Bernoulli pour lesquelles on
précise le paramètre de la loi.
o
3 ) Déterminer les lois de probabilités des variables aléatoires Z = XY et S = X + Y .
4o ) Calculer la covariance entre X et Y notée Cov(X, Y ).
5o ) Déterminer la loi jointe du couple aléatoire (X, Y ).
6o ) Chercher une condition nécessaire et suffisante sur p pour que le couple
(X, Y ) soit indépendant.
Solution de l’exercice 16
1o )
Ω = {P P P, P P F, P F P, F P P, P F F, F P F, F F P, F F F }
2o ) X est à valeurs dans X = {0, 1} et Y est à valeurs dans Y = {0, 1} car pour tout
élément ω ∈ Ω, ω contient soit une fois soit zéro fois la séquence P F et de même pour
18
la séquence F P . De plus
IP (X = 0) = IP ({P P P, F P P, F F P, F F F })
= IP (P P P ) + IP (F P P ) + IP (F F P ) + IP (F F F )
= p3 + (1 − p)p2 + (1 − p)2 p + (1 − p)3
= 2p2 − 2p + 1
et
IP (Y = 0) = IP ({P P P, P P F, P F F, F F F })
= IP (P P P ) + IP (P P F ) + IP (P F F ) + IP (F F F )
= p3 + (1 − p)p2 + (1 − p)2 p + (1 − p)3
= 2p2 − 2p + 1
On vérifie facilement que 2p2 − 2p + 1 ∈]0, 1[ pour p ∈)0, 1[.
Donc X et Y sont deux variables aléatoires de Bernoulli, de même paramètre 2p − 2p2 =
2p(1 − p).
3o )L’ensemble de valeurs possibles pour la variable Z est Z = {0, 1} et celui des valeurs
possibles pour la variable S et S = {0, 1, 2} puisque X et Y sont à valeurs dans {0, 1}.
• Loi de Z
IP (Z = 0) = IP [(X = 0, Y = 0) ∪ (X = 0, Y = 1) ∪ (X = 1, Y = 0)]
= IP [(X = 0, Y = 0)] + IP [(X = 0, Y = 1)] + IP [(X = 1, Y = 0)]
= IP [{P P P, F F F }] + IP [{F P P, F F P }] + IP [{P F F, P P F }]
= p3 + (1 − p)3 + (1 − p)p2 + (1 − p)2 p + p(1 − p)2 + p2 (1 − p)
= 1 + p2 − p
Donc Z est une variable de Bernoulli de paramètre p(1 − p) : Z ∼ B(1, p(1 − p)).
• Loi de S
IP (S = 0) = IP (X = 0, Y = 0) = 1 − 3p + 3p2 = 1 − 3p(1 − p)
S 0 1 2
πS 1 − 3p(1 − p) 2p(1 − p) p(1 − p)
4o )
Cov(X, Y ) = IE(XY ) − IE(X)IE(Y )
= IE(Z) − IE(X)IE(Y )
= p(1 − p) − (2p(1 − p))2
= p(1 − p)(2p − 1)2
5o ) Loi jointe de (X, Y ) : nous avons IP (X = 0, Y = 0) = IP (S = 0) = 1 − 3p(1 − p) et
donc
19
De même nous avons IP (X = 1, Y = 1) = IP (S = 2) = p(1 − p) et donc
La loi jointe du couple (X, Y ) est donc résumée dans le tableau suivant en incluant les
lois marginales déjà calculées :
X /Y 0 1 πX
2
0 1 − 3p(1 − p) p(1 − p) 2p − 2p + 1
1 p(1 − p) p(1 − p) 2p(1 − p)
2
πY 2p − 2p + 1 2p(1 − p) 1
En notant (πij ) la loi jointe du couple (X, Y ), alors pour que (X, Y ) soit indépendant, il
faut que πij = πX (i)πY (j) pour tout (i, j) ∈ {0, 1}2 . En regardant le tableau résumant la
loi jointe de (X, Y ) avec les marges, il faut que p(1 − p) = 14 , soit p = 21 est la condition
nécessaire que l’on montre qu’elle est aussi suffisante, en remplaçant p par 12 dans le
tableau, pour que (X, Y ) soit indépendant. Pour p = 1/2, on trouve 1/4 à l’intérieur du
tableau et 1/2 dans les marges, ce qui signifie que la pièce utilisée est équilibrée.
Exercice 17.
Soit Z = (X, Y ) un couple de variables aléatoires réelles possédant une densité de
probabilité f définie par :
c
f (x, y) = √ e−y 11{x>0,y>0,x<y2 }
x
Z +∞ Z +∞
1 −y
= c √ √
e dy dx
0 x x
√
+∞
e− x
Z
= c √ dx
0 x
Z +∞ √
= 2c e−t dt (changment de variable : t = x)
0
= 2c
e−y
Donc c = 1/2. Par conséquent f (x, y) = √ 11{x>0,y>0,x<y2 } .
2 x
20
2.) Densité de probabilité de X
Z +∞ Z +∞
1 −y
fX (x) = f (x, y)dy = √ e dy 11]0,+∞[ (x)
−∞ 2 x √x
ce qui donne
1 √
fX (x) = √ e− x 11]0,+∞[ (x)
2 x
Densité de probabilité de Y
!
+∞ y2
e−y
Z Z
1
fY (y) = f (x, y)dx = √ dx 11]0,+∞[ (y)
−∞ 2 0 x
ce qui donne
fY (y) = ye−y 11]0,+∞[ (y)
Il est facile de vérifier que fX (x)fY (y) 6= f (x, y), par conséquent X et Y ne sont pas
indépendantes.
21