Variables Aléatoires Indépendantes
Variables Aléatoires Indépendantes
variables-aléatoires.tex – page 2
Exercice 13. Séries dans je jeu de pile ou face infini
On lance une infinité de fois une pièce ayant une probabilité p 2 ]0; 1[ de donner pile, les lancers étant
mutuellement indépendants. Si ! 2 fP; F gN , on décompose w en sous-suites de résultats consécutifs
identiques, appelés séries, le résultat changeant d’une série à la suivante et on note L1 (! ); L2 (! ); : : :
les longueurs de ces séries. Par exemple, si ! = FFFPFPPPPFP : : :, on a L1 (! ) = 3, L2 (! ) = 1,
L3 (!) = 1, L4 (!) = 4; L5 (!) = 1.
Les fonctions L ; L ; : : : sont bien définies sur le sous-ensemble 0 de
1 2 = fP; F gN constitué des suites
comportant une infinité de P et une infinité de F .
1) Prouver que 0 est un évènement et que P( 0 ) = 1.
Dans la suite de l’exercice, on se place dans l’espace probabilisé constitué de 0 , des évènements
inclus dans 0 et de la restriction de P à ces évènements. On admet que L1 ; L2 ; : : : sont des variables
aléatoires sur cet espace probabilisé.
2) Déterminer la loi de L1 et son espérance.
3) Déterminer la loi conjointe de (L1 ; L2 ). En déduire la loi de L2 et son espérance.
4) Expliquer pourquoi L1 et L2 n’ont pas même loi. L1 ; L2 sont-elles indépendantes ?
5) Montrer que L3 a même loi que L1 , et que L1 ; L3 ne sont pas indépendantes si p 6= 12 .
Exercice 14. Temps d’attente
Au jeu de pile ou face infini avec une pièce équilibrée, on considère les variables aléatoires TXY = nombre
de lancers jusqu’à obtenir la séquence XY où X; Y 2 fP; F g.
1) Déterminer les lois et les espérances de TP P ; TP F ; TF P ; TF F .
2) Calculer P(TP P > TP F ) et P(TP P > TF P ).
3) Déterminer les lois de TP P F et TF P P en fonction de la loi de TP P et leurs espérances.
4) Calculer P(TP P F > TF P P ).
Exercice 15. Marche aléatoire dans Z2
On considère une particule se déplaçant au hasard dans un plan de la manière suivante :
– le temps est discret ;
– à l’instant n, la particule tire une direction au hasard parmi Nord, Sud, Est, Ouest avec probabilité 14
pour chaque direction puis effectue un pas dans cette direction ;
– les tirages sont mutuellement indépendants.
Le but de l’exercice est de prouver qu’il est presque sûr que la particule passera une infinité de fois par
son point de départ. On note Zn = (Xn ; Yn ) la position de la particule à l’instant n dans le repère
(position de départ,Est,Nord) et N le nombre d’instants n > 1 tels que Zn = (0; 0). N est une variable
aléatoire à valeurs dans N [ f1g et il s’agit de prouver que P(N = 1) = 1.
1) Montrer que P(N > 2) = P(N > 1)2 puis généraliser. P
2) En déduire qu’il suffit de prouver que la série k P(N > k) est divergente.
3) Exprimer P(Zn = (0; 0)) sous Pforme d’une somme de coefficients binomiaux.
4) Montrer pour k; m; n 2 N : m n = m+n.
i+j =k i j k
5) En
P déduire une expression simple pour P( Z2 n = (0; 0)) et un équivalent lorsque n ! 1. La série
n P (Z2n = (0 ; 0)) est-elle convergente ?
6) Pour p 2 N fixé soit Np la variable aléatoire valant 1 si Zp = (0; 0) et 0 sinon.
Montrer que E(N0 + : : : + Np ) ! 1.
p!1
7) Conclure.
variables-aléatoires.tex – page 3
Exercice 16. Association de parieurs (Centrale MP 2015)
Dans l’énoncé, n désigne un entier naturel supérieur ou égal à 3 et N un entier naturel non nul.
Un jeu oppose n joueurs notés J1 ; : : : ; Jn . Le jeu consiste à lancer N fois une pièce équilibrée. Avant les
lancers, chaque joueur écrit une liste de prévisions pour les lancers. Les gagnants sont les joueurs ayant
obtenu le plus grand nombre de prévisions correctes : ils se partagent alors la somme de S euros.
Dans la suite, on abrégera pile en P et face en F . Par exemple, si N = 3 et si les lancers donnent PPF ,
le joueur ayant prédit PFP aura une prévision correcte (l’ordre compte). Pour i 2 [[1; n]], on note Xi le
nombre de prévisions correctes du joueur Ji et Gi son gain.
1) Dans cette question, on suppose que les joueurs choisissent leur prédiction au hasard indépendamment
les uns des autres. On admet que dans ces conditions, les variables aléatoires Xi sont mutuellement
indépendantes et de même loi.
a) Justifier que les variables Gi ont même loi. On ne demande pas de déterminer explicitement
cette loi.
b) Justifier que l’espérance de Gi est S=n pour tout i.
c) Vérifier expérimentalement ce fait à l’aide d’une simulation en Python.
2) Dans cette question, on suppose que les joueurs J1 ; J3 ; : : : ; Jn choisissent leur prédiction au hasard
indépendamment les uns des autres et le joueur J2 choisit les prévisions contraires de celles de J1 .
Par exemple, si N = 3 et J1 choisit PFP alors J2 choisit FPF . On admet qu’alors les variables
aléatoires X1 ; X3 ; : : : ; Xn sont mutuellement indépendantes de même que les variables X2 ; X3 ; : : : ; Xn .
A l’issue du jeu, les joueurs J1 et J2 se partagent leurs gains éventuels. On pose G0 = G1 + G2 et
Y = max(X1 ; X2 ). On suppose enfin que N est impair : N = 2p + 1.
a) Montrer que les Xi suivent toutes la même loi que l’on précisera. Dans la suite, on notera qk =
P(Xi = k) et k = P(Xi 6 k).
b) Préciser l’ensemble V des valeurs prises par Y .
c) Soient j 2 [[1; n 1]] et k 2 V . Calculer P(G0 = S=j; Y = k) en fonction de qk et k 1 .
d) En déduire E(G0 ); E(G1 ) et E(G2 ). La stratégie adoptée par J1 et J2 est-elle avantageuse ?
3) Reprendre le modèle de la question précédente en supposant N pair : N = 2p. On vérifiera qu’alors
E(G0 ) = n2S 1 1 nq pn + pn 1 . La stratégie adoptée par J et J est-elle avantageuse ?
p nqp 1 2
variables-aléatoires.tex – page 4
Exercice 20. Loi décomposable
Soit X une variable aléatoire à valeurs dans N. On dit que X est décomposable s’il existe deux variables
aléatoires indépendantes Y et Z à valeurs dans N non presque sûrement constantes telles que Y + Z ait
même loi que X .
1) Si X est décomposable, donner une relation entre GX ; GY ; GZ .
2) Soient n > 2 et p 2 ]0; 1[. Si X B (n; p), montrer que X est décomposable.
3) Soit n > 2 non premier. On suppose que X suit une loi uniforme sur f0; : : : ; n 1g. Montrer qu’il
Pr 1 i 1 Ps 1 ri
existe r; s 2 N n f0; 1g tels que : 8 t 2 R, GX (t) = r i=0 t s i=0 t . En déduire que X est
1
décomposable.
4) On suppose que n > 3 est premier. Soit X suivant une loi uniforme sur f0; : : : ; n 1g. Montrer que
X n’est pas décomposable.
Exercice 21. CCP 2017
On considère un couple de variables aléatoires (X; Y ) de loi conjointe :
(i + j )ei+j 1
8 (i; j ) 2 N2 ; P(X = i; Y = j) =
2e2e i! j !
:
1) Déterminer les lois marginales de X et Y .
2) X et Y sont elles indépendantes ?
3) Montrer que E(2X +Y ) existe et donner sa valeur.
Exercice 22. Centrale 2017
Soit (Xi )i2N une famille de variables aléatoires
Pn mutuellement indépendantes suivant une loi de Bernouilli
de paramètre p, et, pour n 2 N, Sn = i=0 Xi .
1) a) Déterminez la loi de Sn . p
b) Majorez u : t 7! P(jSn E(Sn )j > t n) à l’aide de l’inégalité de Bienaymé-Tchebychev. On
nomme ' cette majoration. Tracer à l’aide de Python sur un même graphe u et ' pour n = 100
et p = 0:25. Que constatez-vous ?
2) Soient s > 0, c < 0 < d et y 2 [c; d].
a) Montrez que esy 6
d y esc + y c esd .
d c d c
sd 6 s (d c) .
d e sc c e
2 2
b) Montrez que ln
d c d c 8
c) On considère une variable aléatoire discrète Y centrée à valeurs dans l’intervalle [c; d]. Montrez
que E(esY ) 6 exp( s (d8 c) ).
2 2
variables-aléatoires.tex – page 5
solutions
Exercice P1.
PN
N
1) a) k=1 P(X > k)
PN 1
=0 kP(X = k) = N P(
kP X > N ) = P1
P k=N N P(X = k).
b) k=1 2kP(X > k)
N N
k=0 k P(X = k) = k=1 P(X > k) + (N + 1)P(X > N )
1 2 1 2
P1 en supposant que E(X ) est finie, on obtient que E(X ) est finie si et seulement si la série
2
donc
k=1 kP(X > k) converge et dans ce cas,
1
X 1
X 1
X 2
V(X ) = 2 kP(X > k) P(X > k) P(X > k) :
k=1 k=1 k=1
c)
1
X
E( Mn ) = (1 (1 (1 p)k 1
)n )
k=1
1 X
X n
n ( 1)`+1 (1 p)(k 1)`
k=1 `=1 `
=
Xn X 1 n
( 1)`+1 (1 p)(k 1)`
=
`=1 k=1 `
n
X n ( 1)`+1 (non simplifiable).
`=1 ` 1 (1 p)
= `
variables-aléatoires.tex – page 6
Exercice 7.
1) La probabilité que le jetonj ne soit pas tiré au cours des k premiers tirages est (1 1=n)k k!1! 0. En
conditionnant par j on obtient P(N = 1) = 0.
2) P(Ni = k) = (i=n)k 1 (1 i=n), E(Ni ) = n=(n i) et E(N ) = E(N1 ) + : : : + E(Nn 1 ) = nHn 1 .
3) Pour 2 Sn , on a P(S = j N1 = k1 ; : : : ; Nn 1 = kn 1 ) = 1k 1 2k 1 : : : (n 1)kn
1 2 1
=nk +:::+kn
1 1 1
est indépendant de .
Exercice 8.
1) 18 .
2) P(X = j ) = P(Y = j ) = (j + 1)=2j +2 .
3) Non.
4) 3.
Exercice 9.
1) Soient p = P(X = 1) et q = P(X = 1) = 1 p.
On a E(jX + Y j) E(jX j) = 2p2 + 2q 2 1 = 2p2 + 2q 2 (p + q )2 = (p q)2 > 0.
2) a) X
E(jX + Y j) = jx + yjP(X = x)P(Y = y)
x>0;y>0
X
+ jx + yjP(X = x)P(Y = y)
x>0;y<0
X
+ jx + yjP(X = x)P(Y = y)
x<0;y>0
X
+ jx + yjP(X = x)P(Y = y)
x<0;y<0
= A + B + C + D:
A = Px>0;y>0 xP(X = x)P(Y = y) + Px>0;y>0 yP(X = x)P(Y = y) = 2ap.
D = 2bq et B = C > aq bp (calculs analogues).
D’où E(jX + Y j) > 2(ap + bq ) + 2(aq bp). Si aq bp > 0 c’est bon. Sinon, on obtient bp aq en
utilisant jx + y j > jy j jxj.
b) Pour a = b = 0, le minorant est constamment nul et dans ce cas, E(jX j) = a + b = 0.
Pour a + b > 0, le plus petit minorant est (2a2 + 2b2 )=(a + b) > a + b = E(jX j), atteint pour
p = a=(a + b).
3) Pour X; Y dépendantes, prendre Y = X avec P(X = 1) = P(X = 1) = 12 .
Pour X; Y indépendantes de lois distinctes, prendre X = 1, P(Y = 1) = 13 , P(Y = 1) = 23 .
variables-aléatoires.tex – page 7
Exercice 10.
2) min(jX j; jY j) sgn(XY ) = min(X + ; Y + ) + min(X ;Y ) min(X + ; Y ) min(X ; Y +) ;
1
X
E(min(X + ; Y + )) = P(min(X + ; Y + ) > n)
n=0
1
X
= P(X + > n; Y + > n)
n=0
1
X
= P(X + > n)P(Y + > n)
n=0
et de même pour les autres espérances. Il vient
E(jX + Y j) E(jX Y [)
1
X
=2 (P(X + > n)P(Y + > n) + P(X > n)P(Y > n)
n=0
variables-aléatoires.tex – page 8
Exercice 13.
1) Soit Pm;n =« au cours des n premiers lancers, il sort exactement m pile ».
On a P(Pm;n ) = m n pm q n m ! 0 à m fixé car q = 1 p < 1. Donc la probabilité qu’une suite
n!1
infinie donne exactement m pile est nulle, et par union dénombrable, la probabilité qu’une suite infinie
comporte un nombre fini de pile est elle aussi nulle. Comme p < 1, on a de même P(il y a un nombre
fini de face) = 0, puis par union, P( 0 ) = 0.
2) En conditionnant par le résultat du premier tirage, on trouve
P(L1 = k) = pk q + pqk , d’où E(L1 ) = p=q + q=p.
3) P(L1 = k; L2 = `) = pk+1 q ` + p` q k+1 , P(L2 = `) = p2 q ` 1 + p` 1 q 2 , E(L2 ) = 2.
4) L2 est la longueur de la première série d’une suite amputée d’un nombre aléatoire de termes, il n’y a
aucune raison pour qu’elle ait même loi que la longueur de la première série d’une suite non amputée
(ou amputée d’un nombre fixé de termes).
P(L1 = 1; L2 = 1) = P(L1 = 1)P(L2 = 1) , p = q = 12 et lorsque cette condition est réalisée, on
constate que la loi conjointe de (L1 ; L2 ) est bien la loi produit des lois de L1 et L2 , identiques dans
ce cas.
5) P(L1 = i; L2 = j; L3 = k) = pi+k q j +1 + pj +1 q i+k , P(L1 = i; L3 = k) = pi+k 1 q 2 + p2 q i+k 1 ,
P(L3 = k) = pk q + pqk .
Exercice 14.
1) P(TP P = k) = 1
P(TPpP =k 1) + 14 P(TP P = k 2) pour k > 3,
2 p
P(TP P = k) = 2 5
p ((
1 5+1 k 1
4 ) ( 1 4 5 )k 1 ), E(TP P ) = 6.
variables-aléatoires.tex – page 9
Exercice 16.
1) a) Pour x = (x1 ; : : : ; xn ) 2 [[0; N ]]n on note f (x) = max(x1 ; : : : ; xn ), h(x) = cardfi tq xi = f (x)g et
gi (x) = S=h(x) si xi = f (x), gi (x) = 0 sinon.
Ainsi pour toute issue ! , on a Gi (! ) = gi (X1 (! ); : : : ; Xn (! )) d’où pour g 2 R et 2 Sn :
X
P(Gi = g) = P(X1 = x1 ; : : : ; Xn = xn )
x2 [[0;N ]]n tq gi (x)=g
X
= P(X1 = x1 ) : : : P(X1 = xn )
x2[[0;N ]]n tq gi (x)=g
X
= P(X1 = x(1) ) : : : P(X1 = x(n) )
x2[[0;N ]]n tq gi (x)=g
X
= P(X1 = y1 ) : : : P(X1 = yn )
y2[[0;N ]]n tq g y)=g
1 (i) (
= P(G 1( i) = g ):
2) a) pk = 2 N Nk .
b) V = [[p + 1; N ]].
c) P(G0 = S=j; Y = k) = P(G0 = S=j; X1 = k) + P(G0 = S=j; X1 = N k) = 2 n 2 q j n 1 j.
j 1 k k 1
d)
N nX1
X 2S n 2 j n 1 j
E(G0 ) = q k k 1
k=p+1 j =1 j j 1
N nX1
X 2S n 1 j n 1 j
=
k=p+1 j =1 n 1 j q k k 1
N
X 2S
(qk + k 1 )n 1 kn 11
k=p+1 n 1
=
N
X 2S n 1
n 1
k=p+1 n 1
= k k 1
2S n 1
=
n 1 N n 1
p
2S 1
=
n 1 1
2n 1
:
Comme G1 = G2 = 12 G0 , on obtient E(G1 ) = E(G2 ) = n S 1 1 2n1 1 > Sn pour tout n > 3.
3) Calculs abominables: : : En admettant la formule donnée, pn pn 1 nqp pn 1 par accroissements
finis, et p 12 donc J1 et J2 ont probablement encore intérêt à s’associer.
Exercice 17. p
1) Inégalité de Cauchy-Schwarz : j cov(X; Y )j V(X )V(Y ) avec V(X ) = E(X 2 ) E(X )2 6 E(X )
E(X )2 6 14 .
Il y a égalité si et seulement si X; Y sont presque sûrement affinement liées de même loi B ( 12 ).
2) Appliquer la question précédente aux fonctions indicatrices de A; B . Il y a égalité si et seulement si
P(A) = 12 et B diffère de A ou A par un ensemble négligeable.
variables-aléatoires.tex – page 10
Exercice 18.
1) L’ensemble des valeurs possibles est N [ f1g, dénombrable.
Pk
Pour k 2 N, Zk =S n=0 1En est une variable aléatoire discrète par addition.
1
Donc fZ > pg = k=0 fZk > pg est un évènementTpour tout p 2 N. On en déduit que les ensembles
fZ = pg = fZ > pg n fZ > p + 1g et fZ = 1g = 1 p=0 fZ > pg sont des évènements.
2) F = fZ = 1g est un évènement,
S1 donc F en est un. P
1
Par ailleurs, fZ > pg n=p 1 En donc P(Z > p) 6 n=p 1 P(En ) ! 0 puis P(Z = 1) = 0 par
p!1
continuité décroissante.
3) Le théorème d’interversion série-espérance étant hors programme, il faut ruser: : :
k
X
P(En ) = E(Zk )
n=0
1
X
= P(Zk > i)
i=1
1
X
> P(Zk > i; Zk = Z )
i=1
1
X
= P(Z > i; Zk = Z )
i=1
XI
> P(Z > i; Zk = Z )
i=1
1
X I
X
P(En ) > P(Z > i):
n=0 i=1
P1
On fait alors tendre I vers l’infini : n=0 PP(En ) > E(Z ), ce qui résout la question. Comme l’inégalité
1
inverse est triviale, on a en réalité E(Z ) = n=0 P(En ) et on a ainsi espérancé terme à terme: : :
Exercice
P119. P1
1) k=0 P(X > k) = k=0 P(Y > Pk1) = E(Y ) > E(X ).
2) Soit " > 0 : on fixe N tel que k=N P(X0 > k) 6 ".
PN 1 P1
Pour n 2 N, on a 0 6 E(Xn ) 6 k=0 P(Xn > k) + k=N P(Xn > k). LaPpremière somme tend
1
vers 0 par continuité décroisante, N étant fixé. La deuxième est majorée par k=N P(X0 > k) 6 ".
3) La suite (X X0 : : : Xn ) relève de la question précédente.
variables-aléatoires.tex – page 11
Exercice 20.
2) X = Y + Z avec Y B (n 1; p) et Z B (1; p).
3) Pour n = ab avec a > 2, b > 2 on a n1 (1 + t + : : : tn 1 ) = a1 (1 + t + : : : + ta 1 ) 1b (1 + ta + : : : + ta(b 1) ).
Donc si Y suit la loi uniforme sur f0; : : : ; a 1g et Z suit la loi uniforme sur f0; a; : : : ; a(b 1)g avec
Y; Z indépendantes alors Y + Z suit la loi uniforme sur f0; : : : ; n 1g.
4) L’énoncé a été posé à Centrale, option PC, mais aucun prof de prépa n’a trouvé de solution de niveau
PC. Voici celle qui a été retenue après divers échanges entre les professeurs qui s’y sont intéressés.
Soient Y et Z des variables aléatoires entières indépendantes non presque sûrement constantes telles
que Y + Z suive la loi uniforme sur f0; : : : ; n 1g. On note pi = P(Y = i), qj = P(Z = j ) pour tous
i; j dans N et a; b les degrés des fonctions génératrices de Y et Z .
a) Les racines de GY sont certaines racines n-èmes de 1 et elles sont simples, deux à deux conjuguées
donc les polynômes GY (t) et ta GY (1=t) ont la même factorisation dans C[t]. Ils sont égaux, ce qui
implique : pi = pa i pour tout i 2 f0; : : : ; ag.
b) On a pour tout i : pi q0 + : : : + p0 qi = 1=n = p0 q0 donc pi 6 p0 et qi 6 q0 . De plus pour i=a:
pa q0 + : : : + p0 qa = p0 q0 + p1 q1 + : : : + pa qa donc pi qi = 0 si i > 1.
c) On montre par récurrence forte sur i que pi = 0 ou pi = p0 et qi = 0 ou qi = q0 . Pour l’hérédité :
p0 qi + pi q0 = p0 q0 (: : :) où (: : :) est un multiple entier de p0 q0 et un au plus des deux produits du
premier membre est non nul si i > 1; cela suffit à conclure vu b).
d) Conclusion : dans GY , tous les coefficients non nuls sont égaux à p0 et leur somme vaut 1 donc
p0 = 1=(leur nombre). Ce nombre est supérieur ou égal à 2 car Y n’est pas presque sûrement constante.
De même q0 est l’inverse d’un entier au moins égal à 2 puis n = 1=p0 q0 n’est pas premier.
Exercice 21.
1) P(X = i) = 2eee i! (i + e) = P(Y = i).
i 1
Exercice 23.
E(X 2 ) (a + b)E(X ) = E((X a)(X b)) ab et (X a)(X b) 6 0 . Il y a égalité si et seulement si
X est presque sûrement à valeurs dans fa; bg.
variables-aléatoires.tex – page 12