Variables aléatoires sur univers fini
Variables aléatoires sur univers fini
MPSI 1 TD
1 Variables aléatoires
⊲ Exercice 1.1.
On lance deux dés à six faces parfaitement équilibrés. Soit X la variable aléatoire égale à la somme des points
obtenus. Donner la loi de X, sa fonction de répartition ainsi que la loi de Y = |X − 7|.
⊲ Exercice 1.2.
Une urne contient initialement une boule blanche et une boule noire indiscernables au toucher. On y effectue
des tirages successifs et, à chaque pas du tirage, on replace dans l’urne la boule tirée en ajoutant une boule
supplémentaire de la même couleur indiscernable des autres au toucher.
On désigne par Xn le nombre de boules blanches obtenues au cours des n premiers tirages.
1. Déterminer la loi de X1 , la loi de X2 .
2. Calculer P(Xn = 0) et P(Xn = n).
3. Exprimer la loi de Xn en fonction de la loi de Xn−1 . En déduire, par récurrence, la loi de Xn .
⊲ Exercice 1.3.
Une urne contient n boules numérotées 1,2,...,n. On tire deux boules au hasard simultanément. Soit X(resp. Y )
la v.a. égale au plus petit(resp. plus grand) numéro tiré. Calculer E(X), E(Y ).
⊲ Exercice 1.4.
On place trois boules au hasard dans trois tiroirs T1 , T2 , T3 . On note X le nombre de tiroirs vides et Y le nombre
de boules dans T1 . Déterminer la loi du couple (X, Y ), sa covariance, son coefficient de corrélation linéaire. X et
Y sont-elles indépendantes ?
⊲ Exercice 1.5.
Une urne contient deux jetons marqués pour l’un 2 et pour l’autre -3. On tire trois fois de suite un jeton de
l’urne en le remettant après chaque tirage. On note a, b, c les nombres obtenus respectivement à chaque tirage.
A chaque triplet obtenu, on fait correspondre l’ensemble des nombres complexes solution de l’équation
az 2 + bz + c = 0.
1
4. Calculer pour k ∈ N∗ et 1 ≤ i, j ≤ n, P(Uk+1 = i|Uk = j). En déduire l’expression de P(Uk+1 = i) en
fonction de la famille (P(Uk = j))1≤j≤n .
5. Pour tout k ∈ N∗ , on pose uk = E(Uk ). Montrer que la suite (uk ) est une suite arithmético-géométrique.
En déduire la valeur de uk en fonction de n et k.
⊲ Exercice 1.8. Espérance et variance de la loi hypergéométrique
Une urne contient n boules dont m sont rouges (1 < m < n). On effectue k tirages d’une boule sans remise. On
définit la variable aléatoire Xi égale à 1 si la i-ème boule tirée est rouge, à 0 sinon. On note X le nombre de
boules rouges tirées.
1. Calculer l’espérance et la variance de Xi .
2. Déterminer, pour i 6= j, la loi du couple (Xi , Xj ). En déduire Cov(Xi , Xj ).
3. Calculer l’espérance et la variance de X.
⊲ Exercice 1.9.
Une v.a. X suit la loi binomiale de paramètres n et p . Y est une v.a. prenant des valeurs entières telle que la
loi conditionnelle de Y sachant (X = k), k = 0 · · · n, soit une loi binomiale de paramètres n − k et t. Montrer
que Y suit la loi binomiale de paramètres n et t(1 − p). Quelle est la loi de X + Y ?
⊲ Exercice 1.10.
Deux v.a. de loi de Bernoulli non corrélées (coefficient de corrélation linéaire nul) sont-elles indépendantes ?
⊲ Exercice 1.11.
On considère une urne contenant n boules blanches et n boules noires dans laquelle on effectue des tirages
successifs d’une boule, sans remise. On désigne par T la variable aléatoire égale au rang du premier tirage où la
couleur de la boule diffère de celle de la boule précédente.
n
X k n+1
1. Préliminaire : Montrer que = .
p p+1
k=p
2. Préciser les valeurs prises par T .
3. Pour k ∈ N∗ , calculer P(T > k)(sans chercher à calculer P(T = k)).
Xn
4. Montrer que E(T ) = 1 + P(T > k). En déduire l’espérance de T et sa limite quand n tend vers +∞.
k=1
⊲ Exercice 1.12.
Soit N en entier au moins égal à 3 et (Xk )k∈N∗ une suite de v.a. définies sur un même espace probabilisé,
indépendantes, suivant la loi uniforme sur l’ensemble fini [[1, N ]]. Pour tout entier naturel n ≥ 1, on définit la
v.a. Sn = max (X1 , X2 , · · · , Xn ).
1. Les variables S1 , S2 , · · · sont-elles indépendantes ?
2. Pour tout entier n non nul, déterminer la loi de Sn .
3. (H.P.) Démontrer que la probabilité de l’événement ∪+∞
k=1 (Sk = N ) est égale à 1.
⊲ Exercice 1.13.
Combien
de fois faut-il
jeter une pièce bien équilibrée pour que la moyenne de « Pile » obtenus soit dans l’intervalle
1 1
− 0, 01; + 0, 01 avec une probabilité supérieure ou égale à 0, 96 ?
2 2
⊲ Exercice 1.14.
On lance indéfiniment un dé non pipé à six faces. A l’aide de l’inégalité de Bienaymé-Tchebychev, déterminer
la plus petite valeur de n pour laquelle on a plus d’une chance sur deux d’obtenir, en 6n lancers, une fréquence
1
d’apparition du six qui s’écarte de moins de 10−2 de la valeur .
6
⊲ Exercice 1.15. On effectue 4n lancers d’un dé tétraédrique, dont les faces sont marquées 1, 2, 3, 4. Ce dé est
1
pipé et la probabilité qu’un lancer quelconque cache la face marquée 1 vaut p avec 0 < p < 1 et p 6= .
4
On note Xn la variable aléatoire égale au nombre de fois où la face marquée 1 a été cachéee.
1. Quelle est la loi de Xn ?
2. Montrer que P(Xn = n) ≤ P(|Xn − 4np| ≥ n|1 − 4p|)
3. En déduire que lim P(Xn = n) = 0.
n→+∞
2
⊲ Exercice 1.16.
Soit p ∈]0, 1[. On considère une suite (Xi ) de v.a. mutuellement indépendantes, de même loi de Bernoulli de
paramètre p.
Xn + Xn+1 Y1 + · · · + Yn
Pour tout n ∈ N∗ , on définit Yn = et Tn = .
2 n
1. Déterminer la loi des v.a. Yn .
2. Calculer E(Tn ) et V(Tn ).
3. Montrer que, pour tout ε > 0, lim P(|Tn − p| ≥ ε) = 0.
n→+∞
⊲ Exercice 1.17. Soient (Ω, P ) un espace probabilisé et X : Ω → R une variable aléatoire ne prenant que
n ∈ N∗ valeurs différentes (x1 , . . . , xn ) ∈ Rn .
Montrer que la connaissance des moments d’ordre i de X pour i ∈ [[1, n − 1]], à savoir (E(X i ))i∈[[1,n−1]] permet
d’accéder à la loi de X.
Expliciter le cas n = 2.
Montrer que les valeurs (pi = P(X = i) i∈[[1,n]] de la loi de X peuvent être explicités en utilisant les espérances
de la base d’interpolation de Lagrange en x1 , . . . , xn .
⊲ Exercice 1.18. Mines MP 2017. Soit A = (Ai,j )(i,j)∈[[1,n]]2 une matrice dont les coefficients sont des variables
aléatoires Ai,j réelles centrées, réduites, identiquement distribuées définies sur un espace probabilisé fini (Ω, P)
et mutuellement indépendantes.
Calculer E(det(A)) et V(detA).
⊲ Exercice 1.19. Mines PSI 2017. On considère une urne contenant n boules numérotées de 1 à n, dans
laquelle on effectue n tirages successifs sans remise. On note Xk le numéro de la boule tirée à la k-ème étape.
On dit qu’il y a un pic à la k-ème étape si Xk > max(X1 , . . . , Xk−1 ). On convient qu’il y a toujours un pic au
premier tirage. On note Sn le nombre de pics au cours des n tirages.
1. Déterminer P(Sn = 1) et P(Sn = n).
2. Soit Tk la variable indicatrice de l’événement : il y a un pic au k-ème tirage. Déterminer la loi de Tk .
Donner l’espérance de Sn .
3
Correction des exercices
⊲ Corrigé de l’exercice 1.1
1
P(n) : « P(Xn = 0) = = P(Xn = n) »
n+1
⋆ P(1) est vraie d’après la question 1.
⋆ Soit n ∈ N fixé quelconque tel que P(n) est vraie.
1
Puisque la véracité de P(n) donne P(Xn = 0) = , la formule des probabilités conditionnelles dit
n+1
1
P((Xn = 0) ∩ (Xn+1 = 0)) = P(Xn = 0)(Xn+1 = 0) × P(Xn = 0) =
| {z } | {z } | {z } n+2
= P(Xn+1 = 0) n+1 1
= =
car (Xn = 0) ⊂ (Xn+1 = 0) n+2 n+1
car sachant (Xn = 0), il y a car P(n) est vraie
1 boule blanche et n + 1 noires
De même, en se plaçant dans le système complet (Xn = k)k∈[[0,n]],
n
X
P(Xn+1 = n + 1) = P((Xn = k) ∩ (Xn+1 = n + 1)) = P((Xn = n) ∩ (Xn+1 = n + 1))
| {z }
k=0
= ∅ si k < n
1
si bien que, puisque la véracité de P(n) donne P(Xn = n) = , la formule des probabilités
n+1
conditionnelles dit
1
P((Xn = 0) ∩ (Xn+1 = 0)) = P(Xn = n)(Xn+1 = n + 1) × P(Xn = n) =
| {z } | {z } | {z } n+2
= P(Xn+1 = n + 1) n+1 1
= =
n+2 n+1
car sachant (Xn = n), il y a car P(n) est vraie
n + 1 boule blanches et 1 noires
Par conséquent, P(n + 1) est vraie.
1
Ainsi, ∀n ∈ N, P(Xn = 0) = = P(Xn+1 ).
n+1
1
3. Xn+1 (Ω) = [[0, n + 1]].
1 1
D’après les questions précédentes, P(Xn+1 = 0) = et P(Xn+1 = n + 1) = .
n+2 n+2
Soit i ∈ [[1, n]].
En se plaçant dans le système complet (Xn = k)k∈[[0,n]] ,
n
X
P(Xn+1 = k) = P( (Xn = k) ∩ (Xn+1 = i) ) = P((Xn = i−1)∩(Xn+1 = i))+P((Xn = i)∩(Xn+1 = i))
| {z }
k=0
= ∅ si k < i − 1 ou k > i
n−1
X
E(X) = iP(X = i)
i=1
n−1
X 2(ni − i2 )
=
i=1
n(n − 1)
n−1 n−1
!
2 X X
= n i− i2
n(n − 1) i=1 i=1
2 (n − 1)n 1
= n − (n − 1)n(2n − 1)
n(n − 1) 2 6
2
= (3n − (2n − 1))
6
n+1
=
3
Y (Ω) = [[2, n]]
i−1
1 2(i − 1)
∀i ∈ [[2, n]], P(Y = i) = = .
n
2
n(n − 1)
n
X
E(Y ) = iP(Y = i)
i=2
n
X 2(i2 − i)
=
i=2
n(n − 1)
n n
!
2 X X
= i2 − i
n(n − 1) i=2 i=2
n n
!
2 X
2
X
= i −1− i+1
n(n − 1) i=1 i=1
2 1 n(n + 1)
= n(n + 1)(2n + 1) −
n(n − 1) 6 2
2(n + 1)
= ((2n + 1) − 3)
6(n − 1)
2(n + 1)
=
3
⊲ Corrigé de l’exercice 1.4
2
1. Ω = {(i1 , i2 , . . . , ik ) ∈ [[1, n]]k | i1 6 i2 6 . . . 6 ik }.
Ω est en bijection avec les applications croissantes de [[1, k]] dans [[1, n]] donc (voir feuille de TD de
n+k−1
dénombrement) |Ω| = .
k
Il y a un problème, l’univers sur lequel nous définissons Uk n’est pas le même a priori que celui sur lequel
nous définissons Uk+1 , donc a priori les probabilités sur ces univers diffèrent également....comment lever ce
problème ? en considérant un univers infini...mais alors comment définit-on la probabilité sur cet univers ?
2. U1 ֒→ Un donc
⋆ U1 (Ω) = [[1, n]],
1
⋆ ∀i ∈ [[1, n]], P(U1 = i) = .
n
n+1 n2 − 1
On en déduit que E(U1 ) = et V(U1 ) = .
2 12
3. Soit k ∈ N∗ .
D’une part, compte tenu de l’expérience modélisée, Uk (Ω) ⊂ [[1, n]].
Par ailleurs, pour tout i ∈ [[1, n]], considérons l’issue (i, . . . , i) constituée de k tirages successifs de la boule
numéro i, alors Uk (ω) = i donc [[1, n]] ⊂ Uk (Ω).
1
Ainsi, P(Uk = 1) = .
nk
Remarque. En toute rigueur, pour pouvoir appliquer la formule des probabilités composées, il est né-
k−1
\
cessaire de vérifier que P( {Ui = 1}) 6= 0, c’est pourquoi il est plus rigoureux de prouver le résultat
i=1
ci-dessus par récirrence sur la propriété P(k) définie pour k ∈ [[1, n]] :
1
P(k) : « P(Uk = 1) = »
nk
P(Uk = j)
⋆ Si i > j, P(Uk+1 = i, Uk = j) = P{Uk = j}(Uk+1 = i)P(Uk = j) = car sachant que
n−j+1
Xk = j, il s’agit de la probabilité de tirer au hasard une boule parmi n − j + 1 boules indiscernable.
En utilisant la formule des probabilités totales dans le système complet associé à la variable
3
aléatoire Uk à savoir ({Uk = j})j∈[[1,n]],
n
X
P(Uk+1 = i) = P({Uk+1 = i} ∩ {Uk = j})
j=1
Xn
= P(Uk+1 = i, Uk = j)
j=1
i
X
= P(Uk+1 = i, Uk = j) car j > i ⇒ P(Uk+1 = i, Uk = j) = 0
j=1
i
X
= P{P(Xk = j)}(Uk+1 = i)P(Xk = j)
j=1
i
X P(Xk = j)
= en utilisant la probabilité calculée ci-dessus.
j=1
n−j+1
5.
uk+1 = E(Xk+1 )
Xn
= iP(Xk+1 = i)
i=1
n i
X X P(Xk = j)
= i
i=1 j=1
n−j +1
X P(Xk = j)
= i
n−j+1
16j6i6n
n Xn
X P(Xk = j)
= i
j=1 i=j
n−j+1
n n
X P(Xk = j) X
= i
j=1
n − j + 1 i=j
n
X P(Xk = j) (n + j)(n − j + 1)
=
j=1
n−j +1 2
n
1X
= (n + j)P(Xk = j)
2 j=1
n n
nX 1X
= P(Xk = j) + jP(Xk = j)
2 j=1 2 j=1
| {z } | {z }
=1 = E(Xk )
1 n
= uk +
2 2
Par conséquent, la suite (uk ) est une suite arithmético-géométrique solution de la relation de réucurrence
linéaire d’ordre 1 à coefficients constants et avec second membre
1 n
∀k ∈ N∗ , uk+1 = uk + (1)
2 2
La droite vectorielle des solutions de l’équstion homogène est
λ
λ∈R
2k k∈N∗
Une solution particulière constante est (n)k∈N∗ si bien que la droite affine des solutions de l’équation de
récurrence (1) est
λ
+n λ∈R
2k k∈N∗
n+1
Sachant que la suite qui nous intéresse vérifie u1 = E(U1 ) = , on détermine la valeur de λ qui
2
correspond à notre suite
4
1−n
Ainsi, ∀k ∈ N∗ , uk = + n.
2k
Remarque : lim uk = n ce qui s’interprête comme le fait que, lorsque k → +∞, la variable Uk est
k→+∞
presque sûrement constante égale à 1.
2. Sachant que X(Ω) = [[0, n]] et Y (Ω) = [[0, n]], on a (X + Y )Ω ⊂ [[0, 2n]].
Soit i ∈ [[0, 2n]] fixé quelconque.
X
P(X + Y = i) = P(X = k, Y = i − k)
k∈X(Ω)
min(i,n)
X
= P(X = k, Y = i − k) car Y (Ω) = [[0, n]]
k=0
min(i,n)
X
= P(X = k)(Y = i − k) × P(X = k)
k=0
min(i,n)
X n − k i−k n k
= t (1 − t)n−k−(i−k) × p (1 − p)n−k
i−k k
k=0
En particulier,
5
⋆ si i 6 n,
i
X n−k n
P(X + Y = i) = ti−k (1 − t)n−k−(i−k) pk (1 − p)n−k
i−k k
k=0 | {z }
(n − k)! n!
=
(i − k)!(n − i)! k!(n − k)!
i! n!
=
k!(i − k)! i!(n − i)!
X i
!
n i k i−k
= p t (1 − p) i−k
(1 − t)n−i (1 − p)n−i
i k
k=0
n i
= (p + t(1 − p)) (1 − t)n−i (1 − p)n−i
i
n i
= (p + t(1 − p)) (1 − p − t(1 − p)n−i
i
n−k
⋆ si i > n + 1, le coefficient est nul pour tout k ∈ [[0, min(i, n)]] donc P(X + Y = i) = 0.
i−k
donc
n+1
X
|SCp+1,n+1 | = |{f ∈ Sp+1,n+1 | f (p + 1) = k}|
k=p+1
soit n+1
n+1 X
= |{f ∈ Sp+1,n+1 | f (p + 1) = k}|
p+1
k=p+1
6
3. Soit k ∈ N ∗ .
• P(T > 1) = 1 car T (Ω) = [[2, n + 1]].
• Pour k > n + 1, P(T > k) = 0 car T (Ω) = [[2, n + 1]].
• Supposons que k ∈ [[2, n]].
⋆ Méthode dénombrement.
Cette méthode a du sens car on tire les 2n boules « au hasard » ce qui revient à considérer la
probabilité uniforme sur Ω.
2n
Compte tenu du choix de l’univers Ω, |Ω| = (toutes les façons qu’il y a de choisir les n
n
emplacements des n boules rouges parmi les 2n emplacements disponibles, les positions des n
boules noires étant alors déterminées : elles sont sur les n autres emplacements).
Le nombre d’issues correspondant à l’événement (T > k) est
2n − k
2 ×
|{z} n
choix de la couleur | {z }
blanche ou noire choix des emplacements des n boules de
l’autre couleur sur les 2n − k derniers emplacements
2n − k
n
Par conséquent, P(T > k) = 2 .
2n
n
⋆ Méthode de probabilités composées.
Posons, pour tout i ∈ [[1, 2n]], Bi l’événement « le i-ième tirage amène une boule blanche ».
L’événement (T > k) s’écrit alors
a a
(T > k) = (T > k) ∩ B1 (T > k) ∩ B1 = (B1 ∩ B2 ∩ . . . ∩ Bk ) B1 ∩ B2 . . . ∩ Bk
7
n
X
Ainsi, E(T ) = 1 + P(T > k).
k=1
n
X
E(T ) = 1+ P(T > k)
k=1
n
2 X 2n − k
= 1+
2n n
k=1
n
2n−1
X j
2
= 1+ en posant j = 2n − k
2n n
j=n
n
2 2n
= 1+ en utilisant la formule sommatoire de la question 1
2n n+1
n
n
= 1+2
n+1
On peut interpréter ce résultat en disant que si on répète un grand nombre de fois l’expérience, en
moyenne, c’est lors du tirage de la troisième boule que se produit le premier changement de couleur.
si bien que, par indépendance (sous-entendu mutuelle) des variables aléatoires (Xi )16i6n ,
n
! n n
\ Y k
P(Sn 6 k) = P {Xi 6 k} = P(Xi 6 k) =
i=1 i=1
| {z } N
k
=
N
8
On remarque que la formule valable pour k ∈ [[2, N ]] est aussi vraie pour k = 1.
n n
k k−1
Ainsi, ∀k ∈ [[1, N ]] P(Sn = k) = − .
N N
Par ailleurs, on a
+∞
\ p
\
∀p ∈ N∗ , {Sk 6= N } ⊂ {Sk < N }
k=1 k=1
p
\
De plus, {Sk < N } = {Sp < N } :
k=1
p
\
⋆ l’inclusion {Sk < N } ⊂ {Sp < N } est immédiate,
k=1
⋆ réciproquement, pour toute issue ω ∈ {Sp < N }, max(X1 (ω), . . . , Xp (ω)) < N donc pour tout k ∈
[[1, p − 1]],
Sk (ω) = max(X1 (ω), . . . , Xk (ω)) 6 max(X1 (ω), . . . , Xp (ω)) < N
p
\
donc {Sp < N } ⊂ {Sk < N }.
k=1
Par conséquent,
p
! p
\ N −1
P {Sk < N } = P(Sp < N ) = P(Sp 6 N − 1) =
N
k=1
+∞
!
\
Or une probabilité est toujours positive ou nulle donc P {Sk < N } =0 .
k=1
9
Cette formulation nous suggère l’utilisation de l’inégalité de Bienaymé-Tchebychev qui dit
∗ ∗ Sn Sn 1 V Snn
∀n ∈ N , ∀ε ∈ R+ , P −E > 6
n n 100 ε2
Sn V(Sn ) 1 1
d’où, en utilisant que V = = et en particularisant ε = ,
n n 2 4n 100
∗ Sn 1 1 104
∀n ∈ N , P − > 6
n 2 100 4n
d’où
104 Sn 1 1
1− 6P − <
4n n 2 100
donc, pour qu’un tel N existe, il suffit de vérifier que la condition
104
n > N ⇐⇒ 1 − > 0, 96
4n
Or
104 104 4
1− > 0, 96 ⇐⇒ 1− >1−
4n 4n 100
104 4
⇐⇒ 6
4n 100
106
⇐⇒ >n
16
⇐⇒ n > 62500
10
L’inégalité de Bienaymé-Tchebychev appliquée à Fn pour ε = 10−2 donne
1 V(Fn ) 5 × 104
P(|Fn − | > 10−2 ) 6 =
6 (10−2 )2 63 n
5 × 104 1 1 1 1
Si 6 , alors P(|Fn − | > 10−2 ) 6 donc, en considérant l’événement contraire, P(|Fn − |) <
63 n 2 6 2 6
−2 1
10 ) > .
2
10
Par ailleurs n > 3 ⇐⇒ n > 463 donc à partir de 463 lancers, on peut affirmer avec certitude qu’on a
6 n10−4
plus d’une chance sur deux d’obtenir, en 6n lancers, une fréquence d’apparition du six qui s’écarte de moins de
1
10−2 de la valeur .
6
⊲ Corrigé de l’exercice 1.15
On obtient donc (n − 1) équations (contraintes) pour n inconnues (degrés de liberté) qui sont p1 , . . ., pn . On
serit tenté de se dire qu’il n’y pas assez d’information. En fait, il n’y a pas tout-à-fait n degrés de liberté dans la
question posée. En effet, la variable aléatoire, elle, vit dans un espace de dimension n (les applications de Ω dans
{x1 , . . . , xn }) mais l’exercice ne prétend pas qu’il est possible de déterminer X. Il demande de déterminer sa
loi, ce qui est différent. En effet, les inconnues (p1 , . . . , pn ) sont reliées par une équation supplémentaire
p1 + p2 + . . . + pn = 1
qui est une conséquence du fait que (X = i) i∈[[1,n]] est un système complet.
Ainsi, le système à étudier est
p1 + p2 + ··· + pn = 1
x1 p1
+ x 2 p 2 + · · · + x n p n = E(X)
x21 p1 + x22 p2 + ··· + x2n pn = E(X 2 )
.. .. .. ..
. . . .
n−1
x1 p1 + x2n−1 p2 + · · · + xnn−1 pn = E(X n−1 )
Le caractère distinct des n valeurs (xi )16i6n permet d’affirmer que D 6= 0 donc le système admet une unique
solution ce qui prouve qu’en effet, la connaissance des moments d’ordre i pour i ∈ [[1, n − 1]] suffit à caractériser
la loi de X.
De plus, l’expression explicite des pi est donnée par les formules de Cramer :
1 ··· 1 1 1 ··· 1
x1 ··· xi−1 E(X) xi+1 ··· xn
x21 ··· x2i−1 E(X 2 ) x2i+1 ··· x2n
.. .. .. .. ..
. . . . .
x1n−1 ··· n−1
xi−1 n−1
E(X n−1 ) xi+1 ··· xnn−1
∀i ∈ [[1, n]] , pi =
D
Cas n = 2.
1 1 1 1
E(X) x2 x2 − E(X) x1 E(X) E(X) − x1
p1 = = et p2 = = .
x2 − x1 x2 − x1 x2 − x1 x2 − x1
11
Cas général.
Notons (L1 , . . . , Ln ) ∈ Rn−1 [X]n la base d’interpolation de Lagrange en x1 , . . . , xn qui est caractérisée par
Pour tout i ∈ [[1, n]], Li (X) est la variable aléatoire 1(X=xi ) qui, comme toute fonction indicatrice d’un événement,
suit la loi de bernoulli B(pi ) donc
pi = E(1(X=xi )) = E(Li (X))
Les espérances (E(Li (X))) s’expriment en fonction des coefficients de Li et des n − 1 moments (E(X i ))i∈[[1,n−1]]
de X (car les Li sont de degrés 6 n − 1).
Ainsi, E(detA) = 0.
n
!
X Y
V(detA) = V ε(σ) Ai,σ(i)
σ∈Sn i=1
n
! n n
!
X Y X Y Y
= V ε(σ) Ai,σ(i) +2 Cov ε(σ) Ai,σ(i) , ε(γ) Ai,γ(i)
σ∈Sn i=1 σ∈Sn i=1 i=1
γ∈Sn
σ6=γ
n
Y
Posons, pour tout σ ∈ Sn , Xσ = Ai,σ(i) .
i=1
X X
V(detA) = V (ε(σ)Xσ ) + 2 ε(σ)ε(γ)Cov (Xσ , Xγ )
σ∈Sn σ∈Sn
γ∈Sn
σ6=γ
X X
= ε(σ)2 V (Xσ ) + 2 ε(σ)ε(γ)Cov (Xσ , Xγ )
σ∈Sn σ∈Sn
γ∈Sn
σ6=γ
X X
= V (Xσ ) + 2 ε(σ)ε(γ)Cov (Xσ , Xγ )
σ∈Sn σ∈Sn
γ∈Sn
σ6=γ
Soient (σ, γ) ∈ Sn2 tels que σ 6= γ si bien qu’il existe k ∈ [[1, n]] : σ(k) 6= γ(k).
Y n
E(Xσ Yγ ) = EA A
k,σ(k) k,γ(k) A A
i,σ(i) i,γ(i)
i=1
i6=k
| {z }
=Z
12
or Z et Ak,σ(k) car Z est une fonction de v.a. toutes indépendantes de Ak,σ(k) d’où
E(Xσ Yγ ) = E Ak,σ(k) ×E (Z)
| {z }
=0
= 0
donc
Ainsi,
X
V(detA) = V (Xσ )
σ∈Sn
De plus,
n
!
Y
V(Xσ ) = V Ai,σ(i)
i=1
2
! !
n
Y n
Y
= A2i,σ(i)
E − E Ai,σ(i)
i=1 i=1
| {z } | {z }
esp. d’un produit de v.a. indep esp. d’un produit de v.a. indep
car (Ai,σ(i) )16i6n mut. indep implique
car (A2i,σ(i) )16i6n mut. indep implique
n n
!2
Y Y
2
= E Ai,σ(i) ) − E(Ai,σ(i) )
i=1 i=1
= 1n − (0n )2
Ainsi,
V(detA) = n!
13
1
Ainsi, P(Tk = 1) = .
k
• Notons, pour k ∈ [[1, n]], Ak,k l’ensemble des tirages présentant un pic au k-ième tirage.
Notons, pour tout i ∈ [[1, k − 1]], Ak,i l’ensemble des tirages obtenus en échangeant les boules i et k
dans les tirages de Ak,k .
Les k ensembles Ak,1 , . . ., Ak,k ont tous le même cardinal (celui de Ak,k ). De plus ils réalisent une
partition de Ω car
⋆ ils sont disjoints (les éléments de Ak,k ont un pic au k-ième donc ceux de Ak,i ont leur plus grande
valeur parmi les k premières atteinte au i-ième tirage)
⋆ leur réunion fait Ω, car pour un tirage ω donné, on regarde les k premiers numéros, on note i le
plus grand numéro obtenu parmi les k premiers et on obtient que ω ∈ Ak,i .
k
X n! |Ak,k | 1
Ainsi |Ω| = |Ak,i | = k|Ak,k | donc |Ak,k | = si bien que P(Tk = 1) = = .
i=1
k |Ω| k
n
X
Par linéarité de l’espérance, puisque Sn = Tk ,
k=1
n n
X X 1
E(Sn ) = E(Tk ) = ∼ ln n
k n→+∞
k=1 k=1
0 1 loi de U1
0 q1 q2 0 (1 − p1 )(1 − p2 )
1 p1 q2 + q1 p2 0 p1 (1 − p2 ) + (1 − p1 )p2
2 0 p1 p2 p1 p2
loi de U2 1 − p1 p2 p1 p2 1
On en déduit : E(U1 ) = E(X + Y ) = E(X) + E(Y ) (par linéarité de l’espérance). Donc E(U1 ) = p1 + p2 .
De même, E(U2 ) = E(XY ) = E(X)E(Y ) car X et Y sont indépendantes. Donc E(U2 ) = p1 p2 .
Variance : en utilisant la formule de Koenig-Huygens : V (U1 ) = E(U12 ) − E(U1 )2 . Par le théorème de
transfert, on obtient : E(U12 ) = p1 + p2 + 2p1 p2 . Ainsi : V (U1 ) = p1 + p2 − p21 − p22 = p1 q1 + p2 q2 ..
Puis : V (U2 ) = E(U22 ) − E(U2 )2 . Or E(U22 ) = E(X 2 Y 2 ). Les VAR X 2 et Y 2 sont indépendantes donc il
en est de même pour X 2 et Y 2 (qui suivent en fait les mêmes lois que respectivement X et Y !). Donc
E(X 2 Y 2 ) = E(X 2 )E(Y 2 ) = p1 p2 . Ainsi, V (U2 ) = p1 p2 − p21 p22 .
3. Z(Ω) = {0, 1}. P (Z = 0) = P (X1 = 0 ∩ X2 = 0 ∩ ... ∩ Xn = 0). Puisque les Xi sont indépendantes,
on en déduit que P (X1 = 0 ∩ X2 = 0 ∩ ... ∩ Xn = 0) = P (X1 = 0)P (X2 = 0)...P (Xn = 0). Ainsi,
P (Z = 0) = (1 − p1 )(1 − p2 )...(1 − pn ). On en déduit : P (Z = 0) = 1 − (1 − p1 )(1 − p2 )...(1 − pn ).
V (Ω) = {0, 1}. P (V = 1) = P (X1 = 1 ∩ X2 = 1 ∩ ... ∩ Xn = 1). Puisque les Xi sont indépendantes,
on en déduit que P (X1 = 1 ∩ X2 = 1 ∩ ... ∩ Xn = 1) = P (X1 = 1)P (X2 = 1)...P (Xn = 1). Ainsi,
P (V = 1) = p1 p2 ...pn . On en déduit : P (V = 0) = 1 − p1 p2 ...pn .
14