0% ont trouvé ce document utile (0 vote)
74 vues9 pages

Probabilités : Espérance et Variables Aléatoires

Le document présente des exercices sur les probabilités et les variables aléatoires, en abordant des concepts tels que l'espérance, la variance et les moments d'ordre supérieur. Il inclut des démonstrations de propriétés des variables aléatoires, ainsi que des calculs pour des lois spécifiques comme Bernoulli, binomiale, géométrique et de Poisson. Les solutions fournissent des inégalités et des relations entre les moments et les probabilités associées aux variables aléatoires.

Transféré par

plas
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
74 vues9 pages

Probabilités : Espérance et Variables Aléatoires

Le document présente des exercices sur les probabilités et les variables aléatoires, en abordant des concepts tels que l'espérance, la variance et les moments d'ordre supérieur. Il inclut des démonstrations de propriétés des variables aléatoires, ainsi que des calculs pour des lois spécifiques comme Bernoulli, binomiale, géométrique et de Poisson. Les solutions fournissent des inégalités et des relations entre les moments et les probabilités associées aux variables aléatoires.

Transféré par

plas
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Pierre et Marie Curie 2012-2013

Probabilités de base - MM010 Feuille 2

Variables aléatoires, lois.

1. Soit X une variable aléatoire à valeurs dans N. Montrer qu’on a l’égalité


X
E[X] = P(X ≥ n).
n≥1

Solution de l’exercice 1. Calculons le membre de droite, en utilisant le fait que pour


toute famille à double indice (am,n )m,n≥1 de réels positifs, on a
XX XX
am,n = am,n .
n≥1 m≥1 m≥1 n≥1

On trouve
X XX
P(X ≥ n) = P(X = m)
n≥1 n≥1 m≥n

1{m≥n} P(X = m)
XX
=
n≥1 m≥1

1{m≥n} P(X = m)
XX
=
m≥1 n≥1
X
= mP(X = m)
m≥1

= E[X],

ce qui est le résultat attendu.

2. Soient X, Y : (Ω, F , P) → N deux variables à valeurs dans N. Montrer de deux


façons différentes que
X X X
nP(X = n) + nP(Y = n) = nP(X + Y = n).
n≥0 n≥0 n≥0

Solution de l’exercice 2. Le membre de gauche est E(X) + E(Y ) et le membre de droite


est E(X + Y ). Par linéarité de l’espérance, ils sont donc égaux.

1
Donnons une deuxième démonstration de cette égalité. Pour tous n, m entiers, notons
pm,n = P(X = m et Y = n). Calculons le membre de droite. On trouve
X n
XX
nP(X + Y = n) = nP(X = k et Y = n − k)
n≥0 n≥0 k=0

1{k≤n} nP(X = k et Y = n − k)
XX
=
n≥0 k≥0

1{k≤n} nP(X = k et Y = n − k)
XX
=
k≥0 n≥0
XX
= nP(X = k et Y = n − k)
k≥0 n≥k
XX
= (k + l)P(X = k et Y = l)
k≥0 l≥0
X X X X
= k P(X = k et Y = l) + l P(X = k et Y = l).
k≥0 l≥0 l≥0 k≥0

On a utilisé plusieurs fois la règle d’interversion rappelée à l’exercice précédent, et on a


fait un changement d’indice l = n − k à l’avant-dernière ligne. Dans le premier terme de la
dernière ligne, pour tout k ≥ 0, la somme sur l est la somme des probabilités d’événements
deux à deux disjoints dont la réunion vaut {X = k}. De même, dans le deuxième terme,
pour tout l ≥ 0, la somme sur k est la somme des probabilités d’événements deux à deux
disjoints dont la réunion vaut {Y = l}. Ainsi, on trouve
X X X
nP(X + Y = n) = kP(X = k) + lP(Y = l),
n≥0 k≥0 l≥0

ce qui, au nom des indices près, est la formule voulue.

3. Soit Ω un ensemble. Soit f : Ω → R une fonction. Montrer qu’il existe une unique
paire de fonctions (g, h) de Ω dans R+ telles que f = g − h et qu’on ait à la fois g ≤ |f |
et h ≤ |f |. Montrer que si (g̃, h̃) est une autre paire de fonctions positives telles que
f = g̃ − h̃, alors on a g ≤ g̃ et h ≤ h̃.
Solution de l’exercice 3. Soit x un nombre réel. Soit x = a − b une écriture de x
comme différence de deux nombres positifs. tels que a ≤ |x| et b ≤ |x|. Si x ≥ 0, on a
a = x + b ≥ x = |x|, donc a = |x| = x et b = 0. Si x ≤ 0, on a b = a − x ≥ −x = |x|,
donc b = |x| et a = 0. Ces deux cas sont pris en compte par les formules a = max(x, 0) et
b = max(−x, 0). Les nombres a et b ainsi définis ont bien les propriétés voulues. De plus,
si ã et b̃ sont deux nombres positifs dont la différence vaut x, alors le même raisonnement
que ci-dessus montre que ã ≥ a et b̃ ≥ b.
On note x+ = max(x, 0) et x− = max(−x, 0).
Les fonctions g et h qui à tout ω ∈ Ω associent respectivement g(ω) = f (ω)+ et
h(ω) = f (ω)− ont toutes les propriétés voulues.

2
4. a. Soit X une variable aléatoire positive qui admet un moment d’ordre 2. On
suppose P(X = 0) < 1. Montrer que

E[X]2
P(X > 0) ≥ .
E[X 2 ]

b. Soit Y une variable aléatoire quelconque telle que P(Y = 0) < 1 et qui admet un
moment d’ordre 4. Montrer que

E[Y 2 ]2
P(Y 6= 0) ≥ .
E[Y 4 ]

Solution de l’exercice 4. a. Calculons E[X] en faisant apparaître l’événement X > 0 :


Z Z
E[X] = X dP = X 1{X>0} dP.
Ω Ω

On utilise maintenant l’inégalité de Cauchy-Schwarz :


Z Z
E[X] ≤2
X dP 12{X>0} dP = E[X 2 ]P(X > 0).
2
Ω Ω

L’hypothèse P(X = 0) < 1 assure que X n’est pas la variable constante égale à 0, si bien
que E[X 2 ] > 0. En divisant par E[X 2 ], on obtient l’inégalité voulue.
b. On applique l’inégalité précédente à X = Y 2 , qui admet un moment d’ordre 2
puisque Y admet un moment d’ordre 4.

5. On dit qu’une variable aléatoire est centrée et réduite si elle admet un moment
d’ordre 2, si elle est d’espérance nulle et de variance 1. Montrer que pour toute variable
aléatoire X qui admet un moment d’ordre 2 et dont la variance n’est pas nulle, il existe
une unique paire (a, b) de réels telle qu’on ait a > 0 et que la variable aléatoire aX + b
soit centrée et réduite.
Solution de l’exercice 5. On a E[aX + b] = aE[X] + b et Var(aX + b) = a2 Var(X).
1
L’unique paire de réels qui convient est donc la paire (a, b) avec a = Var(X)− 2 et b =
1
−E[X]Var(X)− 2 .

6. Calculer l’espérance, la variance et la fonction génératrice d’une variable aléatoire


X dont la loi est
a. de Bernoulli de paramètre p ∈ [0, 1],
b. binomiale de paramètres n ≥ 0 et p ∈ [0, 1],
c. géométrique de paramètre p ∈]0, 1[,
d. de Poisson de paramètre λ > 0.

3
Solution de l’exercice 6. a. Soit X de loi de Bernoulli de paramètre p. On a E[X] =
0P(X = 0)+1P(X = 1) = p, E[X 2 ] = 02 P(X = 0)+12 P(X = 1) = p, et Var(X) = p−p2 =
p(1 − p). La fonction génératrice de X est GX (s) = E[sX ] = s0 P(X = 0) + s1 P(X = 1) =
1 − p + ps.
b. Soit X de loi binomiale de paramètres n et p. On a
n   n  
X n k n−k
X n
E[X] = kp (1 − p) =p kpk−1 (1 − p)n−k .
k=0
k k=1
k
Pn n
 k n−k
Or, en dérivant par rapport à x l’égalité (x + y)n = k=0 k
x y , on trouve n(x +
y)n−1 = nk=1 nk kxk−1 y n−k . Ainsi,
P 

E[X] = pn(p + (1 − p))n−1 = np.

En
Pndérivant deux fois par rapport à x l’identité du binôme, on trouve n(n − 1)(x + y)n−2 =
n
 k−2 n−k
k=2 k k(k − 1)x y . Ainsi,
n   n  
X n k n−k 2
X n
E[X(X − 1)] = k(k − 1)p (1 − p) =p k(k − 1)pk−2 (1 − p)n−k
k=2
k k=2
k
= p2 n(n − 1)(p + (1 − p))n−2 = p2 n(n − 1).

On en tire E[X 2 ] = E[X(X − 1)] + E[X] = (np)2 − np2 + np, puis Var(X) = np(1 − p).
La fonction génératrice de X est
n  
X n k k
GX (s) = s p (1 − p)n−k = (1 − p + sp)n .
k=0
k

c. Soit X de loi géométrique de paramètre p. On a


X X
E[X] = n(1 − p)pn = (1 − p) npn .
n≥0 n≥1

1
= n≥0 xn , ce qu’on peutPfaire terme à terme
P
En dérivant par rapport à x l’égalité 1−x
n
pour x à l’intérieur du disque de convergence de la série entière n≥0 x , c’est-à-dire
1 n−1 x
P
pour |x| < 1, on trouve (1−x)2 = n≥1 nx . En multipliant par x, on trouve (1−x) 2 =
P n p
n≥1 nx , donc E[X] = 1−p .
1 n−1 2
P P
En dérivant par rapport à x l’égalité (1−x) 2 = n≥1 nx , on trouve (1−x) 3 = n≥2 n(n−
n−2
1)x . Ainsi,
X p2
E[X(X − 1)] = (1 − p) n(n − 1)pn = 2 2
,
n≥2
(1 − p)
p 2 p p2 p p
si bien que E[X 2 ] = 2 (1−p)2 + 1−p
et Var(X) = (1−p)2
+ 1−p
= (1−p)2
.

4
La fonction génératrice de X est
X 1−p
GX (s) = (1 − p) sn pn = .
n≥0
1 − sp

Notons que son rayon de convergence est égal à p1 .


d. Soit X de loi de Poisson de paramètre λ. On a
X λn X λn X λn−1
E[X] = e−λ n = e−λ = e−λ λ = e−λ λeλ = λ.
n≥0
n! n≥1
(n − 1)! n≥1
(n − 1)!

De même,
X λn
E[X(X − 1)] = e−λ = λ2 .
n≥1
(n − 2)!

Ainsi, E[X 2 ] = λ + λ2 et Var(X) = λ.


La fonction génératrice de X est
X λn
GX (s) = e−λ sn = e−λ+sλ = eλ(1−s) .
n≥0
n!

7. Soit X une variable aléatoire réelle. Soit M > 0 un réel. Montrer que les deux
propositions suivantes sont équivalentes.
1. On a l’inégalité |X| ≤ M presque sûrement.
2. La variable X admet des moments de tous les ordres et, pour tout n ≥ 1, on a
l’égalité E[X 2n ] ≤ M 2n .
Solution de l’exercice 7. Supposons P(|X| ≤ M ) = 1. Alors X admet des moments de
tous les ordres et pour tout n ≥ 1, on a E[X 2n ] ≤ E[M 2n ] = M 2n .
Supposons maintenant que X admette des moments de tous les ordres et que, pour
tout n ≥ 1, on ait l’égalité E[X 2n ] ≤ M 2n . Montrons par l’absurde que P(|X| ≤ M ) = 1.
Supposons P(|X| > M ) > 0. Alors il existe un réel α > 0 tel que P(|X| > M + α) > 0. En
effet, l’événement |X| > M est la réunion croissante des événements |X| > M + k1 , k ≥ 1,
donc P(|X| > M ) > 0 est la limite des probabilités P(|X| > M + k1 ). Puisque cette limite
est strictement positive, il existe k ≥ 1 tel que P(|X| > M + k1 ) > 0.
Soit donc α > 0 tel que P(|X| > M + α) > 0. Pour tout n ≥ 1, on a
Z Z
2n 2n
E[X ] = X dP ≥ X 2n dP ≥ P(|X| > M + α)(M + α)2n .
Ω {|X|>M +α}

2n ] α 2n
En particulier, E[XM 2n
≥ P(|X| > M + α)(1 + M ) tend vers +∞ lorsque n tend vers
l’infini, ce qui est contradictoire avec le fait que E[X 2n ] ≤ M 2n pour tout n ≥ 1.

5
8. Soient X et Y deux variables aléatoires bornées. On suppose que pour tout n ≥ 1,
on a E[X n ] = E[Y n ]. Montrer que pour toute fonction polynomiale p : R → R, on a
E[p(X)] = E[p(Y )]. Montrer que ce résultat est encore vrai si on suppose seulement que
p Rest une fonction
R continue. En déduire que pour toute fonction continue f : R → R, on
a R f dPX = R f dPY . En déduire que X et Y ont même loi.
L’hypothèse que X et Y sont bornées est essentielle. Il est possible de construire deux
variables aléatoires qui admettent des moments de tous les ordres, dont les moments sont
égaux, mais dont les lois sont différentes.
Solution de l’exercice 8. Observons que puisque les variables X et Y sont bornées, elles
admettent des moments de tous les ordres.
Soit p une fonction polynomiale. On peut l’écrire p(x) = a0 + a1 x + . . . + an xn pour
un certain n ≥ 0 et certains coefficients a0 , . . . , an . Ainsi, en utilisant la linéarité de
l’espérance et l’hypothèse d’égalité des moments de X et Y , on trouve
n
X n
X
E[p(X)] = ak E[X k ] = ak E[Y k ] = E[p(Y )].
k=0 k=0

Soit M > 0 un réel tel que P(|X| < M ) = P(|Y | < M ) = 1. Soit f une fonction continue
sur R. Pour montrer que E[f (X)] = E[f (Y )], nous allons montrer que la différence entre
ces deux nombres est inférieure à n’importe quel réel strictement positif. Soit donc ε >
0 un réel. Soit p une fonction polynomiale telle que pour tout x ∈ [−M, M ], on ait
|f (x)−p(x)| < 2ε . Une telle fonction polynomiale existe car, d’après un théorème classique,
toute fonction continue peut être approchée uniformément sur un intervalle borné par des
fonctions polynomiales.
Soit A = {ω ∈ Ω : |X(ω)| < M et |Y (ω)| < M }. Par construction de M , P(A) = 1.
Pour tout ω ∈ Ω, on a, par construction de p, |p(X) − f (X)| < 2ε et |p(Y ) − f (Y )| < 2ε .
Ainsi,
Z
|E[f (X)] − E[p(X)]| = f (X) − p(X) dP

Z
= f (X) − p(X) dP
ZA
≤ |f (X) − p(X)| dP
A
ε
< .
2
De même, |E[f (Y )] − E[p(Y )]| < 2ε . On trouve donc, puisque E[p(X)] = E[p(Y )],
|E[f (X)] − E[f (Y )]| ≤ |E[f (X)] − E[p(X)] + E[p(Y )] − E[f (Y )]|
≤ |E[f (X)] − E[p(X)]| + |E[p(Y )] − E[f (Y )]|
< ε.
On a montré que pour toute fonction
R R f , on avait E[f (X)] = E[f (Y )]. Ainsi,
continue
pour toute fonction continue f , on a R f dPX = R f dPY . Cette égalité entraîne l’égalité

6
PX = PY . En effet, pour tous a < b réels, on peut approcher la fonction indicatrice de
l’intervalle ouvert ]a, b[ par une suite croissante de fonction continues et, en appliquant le
théorème de convergence monotone, obtenir l’égalité PX (]a, b[) = PY (]a, b[). Cette égalité
pour tous a < b entraîne bien PX = PY , comme on le démontre à l’exercice 11.

9. Que peut-on dire de la loi d’une variable aléatoire X à valeurs dans N qui satisfait,
pour tous n, m ≥ 0, l’égalité

P(X > n + m) = P(X > n)P(X > m) ?

Solution de l’exercice 9. En prenant m = n = 0, on trouve P(X > 0) = P(X > 0)2 ,


donc P(X > 0) vaut 0 ou 1. Si P(X > 0) = 0, X est la variable constante égale à 0, qui
satisfait l’équation voulue. Supposons maintenant que X n’est pas constante égale à 0.
Alors P(X > 0) = 1 donc X prend ses valeurs dans N∗ .
Notons p = P(X > 1). On a, pour tout n ≥ 1, P(X > n) = pP(X > n − 1) = . . . =
pn P(X > 0) = pn . Cette égalité est encore vraie pour n = 0. Pour tout n ≥ 1, on peut
écrire l’événement X = n comme différence des événements X > n − 1 et X > n. Ainsi,
P(X = n) = P(X > n − 1) − P(X > n) = pn−1 (1 − p).
Notons que p < 1. En effet, P(X > n) = pn . Or les événements X > n forment une
famille décroissante dont l’intersection est vide. Leur probabilité tend donc, lorsque n
tend vers l’infini, vers la probabilité de leur intersection, c’est-à-dire 0. Donc pn tend vers
0 lorsque n tend vers l’infini, ce qui impose p < 1.
Enfin, si p = 0, X a la loi constante égale à 1.
Finalement, X a soit la loi constante égale à 0, soit la loi constante égale à 1, soit la
loi de Y + 1 où Y suit la loi géométrique de paramètre p ∈]0, 1[.

10. Soient X, Y, Z : (Ω, F , P) → (R, BR ) trois variables aléatoires réelles. Soit g :


R → R une fonction mesurable. On suppose que X et Y ont même loi. Est-il vrai que
g(X) et g(Y ) ont même loi ? Est-il vrai que X + Z et Y + Z ont même loi ?
Solution de l’exercice 10. Soit A un borélien de R. On a Pg(X) (A) = P((g ◦ X)−1 (A)) =
P(X −1 (g −1 (A))) = PX (g −1 (A)) = PY (g −1 (A)) = Pg(Y ) (A), donc g(X) et g(Y ) ont la
même loi.
Soit Ω = {−1, 1}2 muni de la tribu P(Ω) et de la probabilité uniforme. Cet espace
modélise l’expérience qui consiste à choisir deux fois de suite au hasard entre 1 et −1,
avec une chance sur deux pour chaque résultat. Pour tout ω = (ω1 , ω2 ) dans Ω, posons
X(ω) = ω1 , Y (ω) = ω2 et Z(ω) = −ω1 .
Les variables X et Y prennent toutes deux les valeurs 1 et −1 avec probabilité 21 :
elles ont donc la même loi. Par construction, X + Z = 0. En revanche, P(Y + Z = 2) = 14 ,
donc Y + Z n’a pas la même loi que X + Z.

7
11. Le but de ce problème est de démontrer qu’une mesure de probabilités borélienne
sur R est déterminée par sa fonction de répartition. Pour ce faire, on démontre un résultat
technique important appelé lemme de classe monotone.
Soit Ω un ensemble. On dit qu’une partie L de P(Ω) est un λ-système si Ω ∈ L , si
pour tous A, B ∈ L tels que A ⊂ B onSa B \ A ∈ L et si enfin pour toute suite croissante
(An )n≥0 d’éléments de L , la réunion n≥0 An appartient à L .
a. Montrer que pour toute partie S de P(Ω), il existe un unique λ-système qui
contient S et qui est minimal pour l’inclusion parmi les λ-systèmes qui contiennent S .
On l’appelle le λ-système engendré par S .
Soit I une partie de P(Ω). On dit que I est un π-système si pour tout n ≥ 1 et
tous A1 , . . . , An ∈ I , on a A1 ∩ . . . ∩ An ∈ I .
b. Montrer qu’une tribu est à la fois un λ-système et un π-système.
c. Soit F une partie de P(Ω) qui est à la fois un λ-système et un π-système. Montrer
que F est stable par unions finies, c’est-à-dire que pour tous A1 , . . . , An ∈ F , on a
A1 ∪ . . . ∪ An ∈ F . Montrer que F est une tribu.
Soit S un π-système. Soit L le λ-système engendré par S .
d. Montrer que L est inclus dans la tribu engendrée par S .
On va démontrer que L lui-même est une tribu. Pour cela, on montre qu’il est stable
par intersections finies.
e. Soit A ∈ S . On pose

L1 = {B ∈ L : A ∩ B ∈ L }.

Montrer que L1 est un λ-système qui contient S . En déduire que L1 = L .


f. Soit maintenant A ∈ L . On pose

L2 = {B ∈ L : A ∩ B ∈ L }.

Montrer que L2 est un λ-système qui contient S . En déduire que L2 = L .


g. Conclure de ce qui précède que si S est un π-système, alors le λ-système engendré
par S est égal à la tribu engendrée par S . Ce résultat s’appelle le lemme de classe
monotone.
h. Soit (Ω, F ) un espace mesurable. Soient P1 et P2 deux mesures de probabilités
sur (Ω, F ). Soit S un π-système inclus dans F tel que F = σ(S ). Montrer que si
P1 (A) = P2 (A) pour tout A ∈ S , alors P1 = P2 . On pourra considérer

E = {A ∈ F : P1 (A) = P2 (A)}.

i. Montrer que l’ensemble des intervalles de la forme ] − ∞, a[ où a ∈ R est un π-


système sur R. En déduire que si deux mesures de probabilités sur (R, BR ) ont la même
fonction de répartition, alors elles sont égales.
Solution de l’exercice 11. Pour certaines questions de cet exercice, je ne donne que des
indications de solution.

8
a. On considère l’intersection de tous les λ-systèmes qui contiennent S et on vérifie
que c’est un λ-système. Le raisonnement est analogue à celui fait à l’exercice 2 de la feuille
1.
b. C’est une conséquence facile de la définition d’une tribu.
c. On utilise le fait que A1 ∪ . . . ∪ An = (Ac1 ∩ . . . ∩ Acn )c pour montrerSque F est
stable par unions finies. Ensuite, on utilise le fait qu’une union quelconque n≥1 An est
la réunion croissante des (A1 ∪ . . . ∪ An ).
d. L est l’intersection des λ-systèmes qui contiennent S . Puisque toute tribu est un
λ-système, cette intersection est incluse dans l’intersection des tribus qui contiennent S .
e. Le fait que L1 soit un λ-système est une vérification de routine. Le fait qu’il
contienne S provient du fait que S est un π-système.
Tout λ-système qui contient S contient L par définition de ce dernier, et L1 est
inclus dans L par définition. Ainsi, L1 = L .
On a donc montré que pour tout A ∈ S et tout B ∈ L , on a A ∩ B ∈ L .
f. D’après la remarque ci-dessus, L2 contient S . Le reste se vérifie comme à la question
précédente.
g. On vient de montrer que le λ-système engendré par un π-système est lui aussi un
π-système. C’est donc une tribu. Il contient donc la tribu engendrée par le π-système et,
puisqu’il est inclus dedans d’après le résultat de la question d, il lui est égal.
h. L’ensemble E est un λ-système, comme on le vérifie en utilisant la définition d’une
mesure de probabilités, le fait que si A ⊂ B on a P(B \ A) = P(B) − P(A), et le résultat
de continuité d’une mesure de probabilités par rapport aux réunions croissantes.
Puisque E est un λ-système et contient S , il contient F . On a donc l’égalité des
mesures sur F tout entier.
i. Il ne reste plus qu’à appliquer ce que nous venons de démontrer.

Vous aimerez peut-être aussi