Université Pierre et Marie Curie 2011-2012
Probabilités de base - MM010 Feuille 5
Indépendance.
1. Déterminer à quelle condition une variable aléatoire réelle est indépendante d’elle-
même.
Solution de l’exercice 1. Soit X une variable aléatoire indépendante d’elle-même. Pour
tout x ∈ R, on a P(X ≤ x, X ≤ x) = P(X ≤ x)P(X ≤ x), donc P(X ≤ x) = P(X ≤ x)2 ,
donc la fonction de répartition de X ne prend que les valeurs 0 ou 1. Posons
a = sup{x ∈ R : P(X ≤ x) = 0}.
Pour tout x < a, il existe t tel que x < t ≤ a et P(X ≤ t) = 0 (sinon, x serait un
majorant strictement plus petit que a de l’ensemble {x ∈ R : P(X ≤ x) = 0}). Donc
P(X ≤ x) ≤ P(X ≤ t) = 0. Par ailleurs, pour tout x > a, on a P(X ≤ x) > 0 (sinon a ne
serait pas un majorant de {x ∈ R : P(X ≤ x) = 0}), donc P(X ≤ x) = 1. Par continuité
à droite de la fonction de répartition de X, on a donc
P(X ≤ x) = 1[a,+∞[ (x).
C’est la fonction de répartition de la loi constante égale à a, donc X est une variable
aléatoire constante.
Réciproquement, soit X une variable aléatoire constante égale à c. Soient A et B deux
boréliens de R. Les deux nombres P(X ∈ A, X ∈ B) et P(X ∈ A)P(X ∈ B) valent 1
si et seulement si c ∈ A ∩ B, et 0 sinon. Dans tous les cas, ils sont égaux, donc X est
indépendante d’elle-même.
Finalement, une variable aléatoire est indépendante d’elle-même si et seulement si elle
est constante presque sûrement.
2. Soient E = {x1 , x2 , x3 } et F = {y1 , y2 , y3 } deux ensembles finis. Pour chacune des
matrices P = (Pij )i,j=1,2,3 ci-dessous, on considère un couple (X, Y ) de variables aléatoires
à valeurs dans E × F tel que pour tous i, j ∈ {1, 2, 3}, on ait P(X = xi , Y = yj ) = Pij .
Déterminer si les variables aléatoires X et Y sont indépendantes.
1 1
1 3 3
1 3 3
4
0 12
0 0 0 4 32 96 4 32 96
3 12 2 2 1 1 2 1 1
P = 0 0 0 , P = 17 17 17
, P = 15 20 60
P = 15 20 20
.
1 1 17 17 17 1 1 1
2
0 6 0 0 0 60 160 480 4 10 24
Solution de l’exercice 2. Dans chaque cas, on commence par calculer la loi de X et la
loi de Y , en utilisant les relations
P(X = xi ) = P(X = xi , Y = y1 )+P(X = xi , Y = y2 )+P(X = xi , Y = y3 ) = Pi1 +Pi2 +Pi3 ,
1
P(Y = yj ) = P(X = x1 , Y = yj )+P(X = x2 , Y = yj )+P(X = x3 , Y = yj ) = P1j +P2j +P3j .
On examine ensuite si pour tous i, j on a Pij = P(X = xi )P(Y = yj ). C’est le cas pour
les trois premières matrices mais pas pour la quatrième.
3. a. Soient X et Y deux variables aléatoires indépendantes de loi gaussienne centrée
réduite. Déterminer la loi de XY
.
b. Soit Z une variable aléatoire qui suit la loi de Cauchy standard. Déterminer la loi
de Z1 .
Solution de l’exercice 3. Les variables aléatoires X et Y sont indépendantes, donc le
2 2
1 − x +y
vecteur aléatoire (X, Y ) admet la densité f(X,Y ) (x, y) = 2π e 2 .
Soit g : R → R une fonction mesurable bornée. On calcule l’espérance de g( XY
):
Z
X 1 x − x2 +y2
E g = g e 2 dxdy.
Y 2π R×R∗ y
On fait le changement de variables (u, v) = ( xy , y) qui s’inverse en (x, y) = (uv, v) et qui
réalise un C 1 -difféomorphisme de R × R∗ sur lui-même. Son jacobien vaut
D(x, y) v u
= det = |v|.
D(u, v) 0 1
Ainsi,
Z
X 1 2 1+u
2
E g = g(u)|v|e−v 2 dudv
Y 2π R×R∗
Z Z
1 −v 2 1+u
2
= g(u) |v|e 2 dv du
2π R R
Z Z +∞
1 2 1+u
2
= g(u) ve−v 2 dv du
π 0
Z R
1
= g(u) du.
R π(1 + u2 )
Ainsi, X Y
suit la loi de Cauchy standard.
b. Les variables aléatoires Z et XY
ont même loi. Or, si deux variables aléatoires U et
V ont la même loi, et si h est une fonction quelconque, alors h(U ) et h(V ) ont la même
loi. Ainsi, Z1 et X
Y
ont la même loi.
Par ailleurs, le vecteur (X, Y ) a même loi que le vecteur (Y, X), si bien que XY
Y
et X
1
ont même loi. Ainsi, Z a même loi que Z, la loi de Cauchy standard.
4. Soient N1 , . . . , Nr des variables aléatoires indépendantes qui suivent des lois de
Poisson de paramètres respectifs λ1 , . . . , λr . Déterminer la loi de N1 + . . . + Nr .
2
Solution de l’exercice 4. Posons N = N1 + . . . + Nr . Calculons la fonction génératrice
de N . Pour tout s ∈ [0, 1], on a
GN (s) = E[sN ] = E[sN1 +...+Nr ] = E[sN1 . . . sNr ].
Puisque N1 , . . . , Nr sont indépendantes, cette dernière espérance s’écrit comme un produit
d’espérances et
GN (s) = E[sN1 ] . . . E[sNr ] = GN1 (s) . . . GNr (s).
On a redémontré que la fonction génératrice d’une somme de variables aléatoires indé-
pendantes était le produit de leurs fonctions génératrices.
Par ailleurs, nous connaissons la fonction génératrice de la loi de Poisson de paramètre
λ : c’est la fonction s 7→ eλ(s−1) . Ainsi,
GN (s) = eλ1 (s−1) . . . eλr (s−1) = e(λ1 +...+λr )(s−1) .
Nous reconnaissons la fonction génératrice de la loi de Poisson de paramètre λ1 + . . . + λr .
Finalement, nous avons démontré que
N1 + . . . + Nr ∼ P(λ1 + . . . + λr ).
5. Calculer la loi de la somme de deux variables aléatoires indépendantes, l’une de
loi de binomiale de parmètres n et p, l’autre de paramètres m et p, où p ∈ [0, 1] et m, n
sont deux entiers.
Solution de l’exercice 5. On peut procéder de plusieurs façons.
1. On sait que la loi binomiale de paramètres n et p est la loi de la somme de n variables
aléatoires indépendantes de loi de Bernoulli de paramètre p.
Soient X1 , . . . , Xn+m des variables aléatoires indépendantes identiquement distribuées
de loi de Bernoulli de paramètre p. Posons Y = X1 + . . . + Xn et Z = Xn+1 + . . . + Xn+m .
Alors Y et Z sont indépendantes, de lois respectives B(n, p) et B(m, p). Leur somme, qui
est Y + Z = X1 + . . . + Xn+m , suit la loi B(n + m, p).
2. Soient Y et Z indépendantes de lois respectives B(n, p) et B(m, p). Les fonctions
génératrices de Y et Z sont GY (s) = (1 − p + sp)n et GZ (s) = (1 − p + sp)m . Puisqu’elles
sont indépendantes, la fonction génératrice de leur somme est
GY +Z (s) = E[sY +Z ] = E[sY ]E[sZ ] = (1 − p + sp)n+m .
On reconnaît la fonction génératrice de la loi binomiale de paramètres n + m et p.
6. Montrer que si la somme de deux variables aléatoires discrètes indépendantes a
la loi de Bernoulli de paramètre p ∈ [0, 1], alors l’une des deux variables aléatoires est
constante.
3
Solution de l’exercice 6. Soient X et Y deux variables aléatoires indépendantes dis-
crètes non constantes. Puisque X n’est pas constante, il existe x1 et x2 distincts tels
que P(X = x1 ) > 0 et P(X = x2 ) > 0. De même, il existe y1 et y2 distincts tels que
P(Y = y1 ) > 0 et P(Y = y2 ) > 0. On peut supposer x1 < y1 et x2 < y2 . On a alors
x1 + y1 < x1 + y2 < x2 + y2 . Posons z1 = x1 + y1 , z2 = x1 + y2 et z3 = x2 + y2 .
Alors P(X + Y = z1 ) ≥ P(X = x1 , Y = y1 ) et, puisque X et Y sont indépendantes,
P(X + Y = z1 ) ≥ P(X = x1 )P(Y = y1 ) > 0. De même, P(X + Y = z2 ) > 0 et
P(X + Y = z3 ) > 0. Ainsi, il existe au moins trois valeurs distinctes que X + Y peut
prendre avec une probabilité strictement positive. Il s’ensuit que la loi de X + Y n’est pas
une loi de Bernoulli.
7. Soient X et Y deux variables aléatoires normales centrées réduites indépendantes.
On pose Z = X − Y . Calculer la matrice de covariance du vecteur (X, Y, Z) et vérifier
que Var(X + Y + Z) = Var(X) + Var(Y ) + Var(Z).
Solution de l’exercice 7. On a Var(X) = Var(Y ) = 1. Puisque X et Y sont indé-
pendantes, Cov(X, Y ) = 0 et Var(Z) = Var(X) + Var(Y ) = 2. Enfin, par bilinéarité de
la covariance, Cov(X, Z) = Cov(X, X) − Cov(X, Y ) = 1 et Cov(Y, Z) = −1. Ainsi, la
matrice de covariance du vecteur (X, Y, Z) est
1 0 1
0 1 −1 .
1 −1 2
On a X + Y + Z = 2X donc Var(X + Y + Z) = 4 = Var(X) + Var(Y ) + Var(Z). C’est donc
un cas où cette égalité a lieu non parce que les variables sont deux à deux non-corrélées
(ce n’est pas le cas ici) mais parce que leurs covariances se compensent exactement.
8. Soit z un nombre complexe.
a. Montrer que l’intégrale
Z +∞
1 x2
I(z) = √ e− 2 ezx dx
2π −∞
est convergente.
b. Montrer que pour tout n ≥ 1, on a l’inégalité
n
X z k xk
≤ e|z||x|
k=0
k!
et en déduire que
+∞ n
z k xk
Z
1 2
− x2
X
I(z) = lim √ e dx.
n→+∞ 2π −∞ k=0
k!
4
c. Calculer I(z).
d. Déterminer la fonction caractéristique d’une variable aléatoire de loi N (µ, σ 2 ).
e. Soit X une variable aléatoire de loi normale. Montrer qu’on a l’égalité
1
E[eX ] = eE[X]+ 2 Var(X) .
x2
Solution de l’exercice 8. a. Pour tout z ∈ C, on a |ez x| = eRe (z)x et limx→±∞ e− 4 ezx =
x2 x2
0. Ainsi, e− 2 ezx = o(e− 4 ) en l’infini, donc l’intégrale est convergente.
b. On a
n n +∞
X z n xn X |zx|k X |zx|k
≤ ≤ = e|z||x| .
k=0
n! k=0
k! k=0
k!
En écrivant ezx comme limite des sommes partielles de la série qui le définit, on trouve
Z +∞ n
1 − x2
2 X z k xk
I(z) = √ e lim dx.
2π −∞ n→+∞
k=0
k!
D’après le résultat précédent, la suite de fonctions dont la limite se trouve sous l’intégrale
x2
est dominée par e− 2 e|z||x| qui, d’après le résultat de la première question, est intégrable.
Le théorème de convergence dominée permet donc d’inverser la limite et l’intégrale et
d’obtenir l’expression voulue.
c. On utilise maintenant le fait que les moments impairs de la loi N (0, 1) sont nuls et
que le moment pair d’ordre 2p est égal, pour tout p ≥ 0, à (2p)!
2p p!
. On trouve donc
n n k
X (2k)! z 2k X 1 z2 z2
I(z) = lim k k! (2k)!
dx = lim = e 2 .
n→+∞
k=0
2 n→+∞
k=0
k! 2
d. Si X suit la loi N (0, 1), on a, pour tout t réel,
Z +∞
1 x2 t2
it
ϕX (t) = E[e ] = √ eitx e− 2 dx = I(it) = e− 2 .
2π −∞
Pour tous µ réel et σ réel positif, σX + µ a la loi N (µ, σ 2 ). La fonction caractéristique de
cette loi est donc
σ 2 t2
ϕσX+µ (t) = eiµt ϕX (σt) = eiµt− 2 .
p
e. Soit Z de loi normale centrée réduite. Alors X a même loi que E[X] + Var(X)Z,
donc h √ i p 1
E[eX ] = E eE[X]+ Var(X)Z = eE[X] I Var(X) = eE[X]+ 2 Var(X) .
9. Soient X1 , . . . , Xn des variables indépendantes et identiquement distribuées de loi
normale centrée réduite. Soient a1 , . . . , an des réels. Déterminer la loi de a1 X1 +. . .+an Xn .
5
Solution de l’exercice 9. On refait ici un calcul qu’on a fait dans la feuille d’exercices
précédente, mais en utilisant l’outil puissant qu’est la fonction caractéristique. En effet,
calculons la fonction caractéristique de la variable aléatoire dont nous voulons calculer la
loi.
E[eit(a1 X1 +...+an Xn ) ] = E[eita1 X1 . . . eitan Xn ) ]
= E[eita1 X1 ] . . . E[eitan Xn ) ]
= ϕX1 (ta1 ) . . . ϕXn (tan )
1 2 a2 ) 1 2 a2 )
= e− 2 (t 1 . . . e− 2 (t n
1 2 2
(a1 +...+a2n )
= e− 2 t .
Il s’agit de la fonction caractéristique de la loi N (0, a21 + . . . + a2n ) : c’est donc la loi de
a1 X 1 + . . . + an X n .
10. Pour tout réel t > 0, on pose
Z +∞
Γ(t) = xt−1 e−x dx.
0
Soient θ et t deux réels strictement positifs. On appelle loi gamma de paramètres θ et
t la loi de densité
θt t−1 −θx
x e 1R+ (x).
Γ(t)
a. Vérifier que la fonction Γ(t) est bien définie sur R∗+ . Vérifier également que la densité
donnée ci-dessus est bien d’intégrale égale à 1.
b. Calculer la fonction caractéristique de la loi Γ(θ, t).
c. Soient t1 , . . . , tn des réels strictement positifs. Soient X1 , . . . , Xn des variables aléa-
toires indépendantes de lois respectives Γ(θ, t1 ), . . . , Γ(θ, tn ). Calculer la loi de la somme
X 1 + . . . + Xn .
Solution de l’exercice 10. a. Soit t un réel strictement positif. La fonction xt−1 e−x est
continue sur R∗+ . En +∞, l’exponentielle assure que l’intégrale converge. En 0, la fonction
est équivalente à xt−1 , dont l’intégrale converge puisque t > 0. Ainsi, la fonction Γ est
bien définie sur R∗+ .
R +∞ R +∞
Calculons maintenant 0 xt−1 e−θx dx. Cette intégrale vaut θ−t 0 (θx)t−1 e−θx θdx
qui, par le changement de variable y = θx, vaut θ−t Γ(t). La fonction donnée est donc
positive et d’intégrale égale à 1, il s’agit bien de la densité d’une mesure de probabilités
sur R.
6
b. Soit u un réel. On a
Z +∞
θt
ϕΓ(θ,t) (u) = eiux xt−1 e−θx dx
Γ(t) 0
Z +∞
θt
= xt−1 e−(θ−iu)x dx
Γ(t) 0
t
θ
= .
θ − iu
c. La fonction caractéristique de X = X1 + . . . + Xn est
t1 tn t1 +...+tn
θ θ θ
ϕX (u) = ϕX1 (u) . . . ϕXn (u) = ... = .
θ − iu θ − iu θ − iu
Ainsi, X1 + . . . + Xn suit la loi Γ(θ, t1 + . . . + tn ).
11. Soit X1 , X2 , . . . une suite infinie de variables aléatoires, toutes de même loi. On
suppose que cette loi admet un moment d’ordre 2, et on en note m l’espérance. On suppose
également que pour tout n ≥ 1, les variables aléatoires X1 , . . . , Xn sont indépendantes.
Pour tout n ≥ 1, on pose Sn = X1 + . . . + Xn . Montrer que l’on a
" 2 #
Sn
lim E −m = 0.
n→+∞ n
Sn
On dit que la moyenne empirique converge en moyenne quadratique, lorsque n tend
n
vers +∞, vers m.
Solution de l’exercice 11. On a E[Sn ] = E[X1 ] + . . . + E[Xn ] = nm, donc E[( Snn −
m) ] = Var( Snn ) = n12 Var(Sn ). Or, puisque X1 , . . . , Xn sont indépendantes, on a Var(Sn ) =
2
Var(X1 ) + . . . + Var(Xn ) = nVar(X1 ). Ainsi, E[( Snn − m)2 ] = n1 Var(X1 ) qui tend vers 0
lorsque n tend vers +∞.