Probabilité II
Probabilité II
1
Vecteurs aléatoires 14
Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Vecteur aléatoire à densité . . . . . . . . . . . . . . . . . . . . . . 14
Fonction d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . 14
Densités marginales . . . . . . . . . . . . . . . . . . . . . . . . . 15
Démonstration . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Réciproque ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Moments d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . 16
Vecteur espérance et covariance . . . . . . . . . . . . . . . . . . . 16
Matrice de covariance . . . . . . . . . . . . . . . . . . . . . . . . 16
Identification de densité 19
Méthode de la fonction muette . . . . . . . . . . . . . . . . . . . 20
Exercices complémentaires 23
Durée de vie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Crues centennales de la Seine . . . . . . . . . . . . . . . . . . . . . . . 23
Indépendance et vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . 24
Symétrie de la gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . 24
Loi du χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Combinaisons linéaires de variables Gaussiennes indépendantes . . . . 25
Loi de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Partie 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Partie 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Solutions 27
Exercices essentiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Moments d’une variable aléatoire de loi uniforme sur [a, b] . . . . 28
Durée de vie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Crues centennales de la Seine . . . . . . . . . . . . . . . . . . . . . . . 35
Indépendance et vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . 35
Symétrie de la gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . 37
Loi du χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Combinaisons linéaires de variables Gaussiennes indépendantes . . . . 41
Loi de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2
Objectifs d’apprentissage
Moments d’une variable aléatoire
— • connaître la définition de l’espérance d’une variable aléatoire
— • connaître l’interprétation de l’espérance
— • connaître les propriétés de base de l’espérance
— • connaître la définition de la variance d’une variable aléatoire
— • savoir que la variance est toujours positive
— • savoir ce que signifie variable centrée-réduite
— • connaître la définition de la covariance
— • savoir que la covariance est une forme bilinéaire
— • connaître et savoir manipuler l’inégalité de Cauchy-Schwarz
— •• connaître les conditions d’existence de l’espérance d’une fonction
(mesurable) d’une variable aléatoire
— •• savoir exprimer la probabilité d’un événement de la forme X ∈ A sous
la forme d’une espérance
— •• connaître et savoir calculer les moments des lois usuelles
Vecteurs aléatoires
— • savoir que les composantes d’un vecteur aléatoire sont des variables
aléatoires définies sur le même espace de probabilité
— • connaître la définition d’un vecteur aléatoire à densité
— •• connaître les conditions d’existence de l’espérance d’une fonction
(mesurable) d’un vecteur aléatoire à densité
— •• savoir calculer les densités marginales d’un vecteur aléatoire à densité
— •• savoir qu’un couple de variables aléatoires à densité n’admet pas
nécessairement de densité
— • connaître la définition de l’espérance d’un vecteur aléatoire à densité
— • connaître la définition de la matrice de covariance d’un vecteur aléatoire
à densité
— • savoir que la matrice de covariance est semi-définie positive
Identification de densité
3
— •• savoir identifier la densité d’une fonction d’une variable aléatoire par
la méthode de la fonction muette
— •• savoir identifier la densité d’une fonction d’un vecteur aléatoire par la
méthode de la fonction muette
Remarque – Interprétation
E(X) est un nombre réel qui donne une valeur moyenne résumant la variable
aléatoire X.
L’espérance mathématique d’une variable aléatoire est un concept fondamental
de la théorie des probabilités. La dénomination d’espérance pour cette quantité
fait référence aux problèmes de jeux et d’espérance de gain. Cette terminologie
imagée a été introduite par Pascal.
On note L1 l’ensemble de toutes les variables réelles X intégrables. Les propriétés
suivantes découlent directement des propriétés de l’intégrale.
4
— X ∈ L1 ⇔ |X| ∈ L1 , et dans ce cas
|E(X)| ≤ E(|X|).
— Si X ≥ 0 et X ∈ L1 , alors E(X) ≥ 0.
— Si X, Y ∈ L1 sont telles que X ≤ Y , alors
E(X) ≤ E(Y ).
Définition – Variance
Proposition – Propriétés
L2 est un sous-espace vectoriel de L1 , et si X ∈ L2 ,
p
|E(X)| ≤ E(|X|) ≤ E(X 2 )
5
L’inclusion L2 ⊂ L1 découle de |X| ≤ 1 + X 2 et de la proposition précédente (p.
4) (linéarité).
La première inégalité a déjà été vue ci-dessus (p. 4). Pour la seconde, nous
pouvons nous limiter au cas où X est positive. Soit alors a = E(X) et Y = X − a.
Par linéarité, on a
Exercice – Approximation par une constante (•) Soit X une v.a. de carré
intégrable. Montrer que E((X − a)2 ) atteint son minimum lorsque a = E(X).
(Solution p. 27.)
X − E(X)
σX
est d’espérance nulle et de variance 1. On dira qu’une telle variable aléatoire est
centrée et réduite.
On peut remarquer que si X et Y sont dans L2 , la variable aléatoire XY est
dans L1 , puisque |XY | ≤ 12 (X 2 + Y 2 ). On peut ainsi définir la covariance de
deux variables aléatoires :
6
Définition – Covariance
Si X et Y sont dans L2 , la variable aléatoire (X −E(X))(Y −E(Y )) est intégrable.
On appelle la covariance de X et Y l’espérance de cette variable aléatoire et on
la note :
Cov(X, Y ) = E((X − E(X))(Y − E(Y ))).
Le coefficient de corrélation des variables aléatoires X et Y est le nombre
Cov(X, Y )
ρ(X, Y ) = p p
V(X) V(Y )
et d’ailleurs, on voit que la formule de calcul de la variance donnée plus haut est
un cas particulier de cette formulation car V(X) = Cov(X, X). La linéarité de
l’espérance nous donne encore pour a, a′ , b, b′ ∈ R
On en déduit que la covariance est une forme bilinéaire sur l’espace vectoriel des
variables aléatoires de carré intégrable, et nous avons
En particulier, on a
V(aX) = a2 V(X)
On en déduit que les coefficients de corrélation de X et Y et de aX + b et a′ Y + b′
sont égaux lorsque aa′ > 0.
7
Démonstration La première inégalité a été démontrée plus haut. Pour la
seconde, on a ∀x ∈ R d’après la linéarité de l’espérance :
Mais ceci n’est possible que si ce trinôme en x n’a au plus qu’une seul racine
réelle ; son discriminant
−1 ≤ ρ(X, Y ) ≤ 1.
(Solution p. 28.)
Enfin, il peut être intéressant de pouvoir calculer l’espérance d’une fonction
mesurable d’une variable aléatoire réelle qui est une variable aléatoire en vertu
de la proposition de composition.
Si PX admet une densité f par rapport à la mesure de Lebesgue, alors g(X) est
PX - intégrable si et seulement si le produit f g est intégrable par rapport à la
mesure de Lebesgue. On a alors :
Z Z Z
E(g(X)) = g(x)dPX (x) = g(x)f (x)dx = g(X(ω))dP(ω)
R R Ω
8
Démonstration On rappelle que la loi de probabilité PX est définie pour
B ∈ B(R) par PX (B) = P(X −1 (B)). Par conséquent
Z
E(1B (X)) = P(X −1 (B)) = PX (B) = 1B (X)dP(x).
R
Loi uniforme
sur [a, b], où a < b et on note X ∼ U[a,b] si X est de densité
1
f (x) = 1[a,b] (x).
b−a
9
et que sa variance vaut
(b − a)2
V(X) = E(X 2 ) − E(X)2 = .
12
(Solution p. 28.)
Loi exponentielle
de paramètre θ > 0 et on note X ∼ E(θ) si X est de densité
(Solution p. 28.)
Loi gamma
On rappelle tout d’abord que la fonction gamma est définie pour α ∈ ]0, +∞[
par Z +∞
Γ(α) = xα−1 e−x dx.
0
Exercice – Moments d’une v.a. de loi gamma (•) Soit X ∼ Γ(α, θ).
Montrer que son espérance et sa variance valent :
α α
E(X) = et V(X) = 2 .
θ θ
10
Loi normale
de paramètres µ et σ 2 et on note X ∼ N (µ, σ 2 ) si X est de densité
(x − µ)2
1
f (x) = √ exp −
2πσ 2σ 2
Son espérance et sa variance valent
E(X) = µ et V(X) = σ 2
Exercice – Moments d’une v.a. gaussienne (•) Après avoir vérifié que
f est bien une densité, calculer l’espérance et la variance de X ∼ N (µ, σ 2 )
(Solution p. 29.)
11
n+m
2. Soit f une fonction B(R )-mesurable positive ou PX ⊗ PY -intégrable,
alorsRla fonction x 7→ f (x, y)PY (dy) est B(Rn )-mesurable, la fonction
R
(Solution p. 30.)
12
Figure 1 – Changement de variables
(Solution p. 31.)
13
Vecteurs aléatoires
Nous allons généraliser ici la notion de variable aléatoire en considérant qu’elle
peut prendre ses valeurs dans Rn . Les vecteurs aléatoires se rencontrent naturelle-
ment lorsqu’on s’intéresse à plusieurs quantités conjointement, par exemple dans
le cas de la météo, la température, la pluviométrie et la vitesse et la direction
du vent.
Définitions
Une variable aléatoire X à valeurs dans Rn (ou vecteur aléatoire) est simplement
une collection de n variables réelles définies sur le même espace probabilisé
(Ω, A, P), qui sont les composantes de X. On écrit X = (X1 , . . . , Xn ).
De même qu’en dimension 1, la loi de X est caractérisée par la fonction de
répartition multi-dimensionnelle F : Rn → R définie par
F (x1 , . . . , xn ) = PX (X1 ≤ x1 , . . . , Xn ≤ xn )
et si
Z x1 Z xn
PX (X1 ≤ x1 , . . . , Xn ≤ xn ) = ... f (x1 , . . . , xn )dx1 . . . dxn .
−∞ −∞
14
est définie et dans ce cas, on a
Z +∞ Z +∞
E(g(X)) = ... g(x1 , . . . , xn )f (x1 , . . . , xn )dx1 . . . dxn .
−∞ −∞
Démonstration
Pour tout x ∈ R, on a par définition
Z x Z
P(X ≤ x) = P(Z ∈] − ∞, x] × R) = E(1]−∞,x]×R (Z)) = du f (u, v)dv ,
−∞ R
Remarque – Réciproque ?
La réciproque de cette proposition est fausse en revanche : les variables aléatoires
X et Y peuvent avoir des densités sans que le couple Z = (X, Y ) en ait une.
Supposons par exemple que X = Y . Si ∆ = {(x, x); x ∈ R} est la diagonale de
R2 , nous avons évidemment PZ (∆) = 1 mais si la proposition
R précédente (p. 14)
était valide pour PZ , on aurait PZ (∆) = E(1∆ ) = R2 1∆ fZ (z)dz = 0 car ∆ est
de volume nul dans R2 .
En particulier, il faut faire attention au fait que dans le cas général, la densité
d’un couple de variables aléatoires n’est pas le produit des densités.
15
Exercice – Lancer de fléchette (••) On lance une fléchette sur une cible
circulaire de rayon unité. Le joueur est suffisamment maladroit pour que le point
M d’impact de la fléchette soit supposé uniformément distribué sur la cible (On
décide de n’observer que les lancés qui atteignent la cible). Exprimer la densité
du couple formé par les coordonnées cartésiennes (X, Y ) de M puis leurs densités
marginales. (Solution p. 32.)
ci,j = Cov(Xi , Xj )
Démonstration LaP symétrie est évidente. Non-négative signifie que pour tous
n Pn
réels a1 , . . . , an , on a i=1 j=1 ai aj ci,j ≥ 0. Un calcul simple montre que
n X
X n Xn
ai aj ci,j = V( ai Xi ) ≥ 0.
i=1 j=1 i=1
On a alors E(X) = m et CX = C.
16
0.4
0.2
0
4
−4 2
−2 0
0
2 −2
4 −4
17
En termes de mesures de probabilité, cette égalité s’écrit
ce qui montre que PZ vérifie la définition d’un vecteur aléatoire à densité (p. 14)
avec fZ = fX fY .
Inversement, si fZ = fX fY , on a pour tous A, B de B(R)
Z Z
P(X ∈ A, Y ∈ B) = fX (x)fY (y)dxdy = P(X ∈ A)P(Y ∈ B)
A B
18
Démonstration La première assertion est évidente par définition de l’indépen-
dance. Par ailleurs, si g(X) et h(Y ) sont intégrables, en notant f(X,Y ) la densité
du couple (X, Y ), et en utilisant le théorème de Fubini, on a
Z
E(g(X)h(Y )) = g(x)h(y)f(X,Y ) (x, y)dxdy
m+n
ZR Z
= g(x)h(y)fX (x)fY (y)dxdy
Rm Rn
Z Z
= g(x)fX (x)dx h(y)fY (y)dy
Rm Rn
= E(g(X))E(h(Y ))
Remarque
Attention, la réciproque est fausse. Par exemple, si X ∼ U[−1,1] et Y = X 2 . X
et Y ne sont clairement pas indépendantes mais on a
Identification de densité
Un problème important est le suivant. Soit X une variable aléatoire réelle,
admettant la densité fX . Soit g une fonction mesurable, de sorte que Y = g(X)
est aussi une variable aléatoire. Est-ce que Y admet une densité, et si oui,
comment la calculer ?
On peut déjà remarquer que cette densité n’existe pas toujours. Si par exemple
g(x) = a pour tout x, la loi de Y est la mesure de Dirac en a, qui n’a pas de
densité par rapport à la mesure de Lebesgue.
19
Pour résoudre ce problème,R l’idée consiste à essayer de mettre E(h(Y )) =
E(h ◦ g(X)) sous la forme h(y)fY (y)dy pour une fonction convenable fY , et
une classe de fonctions h suffisamment grande. La fonction fY sera alors la
densité cherchée.
La proposition qui assure que g(X) est intégrable pour une variable aléatoire
réelle X (p. 8) implique
Z
E(h(Y )) = E(h ◦ g(X)) = h ◦ g(x)fX (x)dx
R
Donc
y−b 1
fY (y) = fX ( )
a |a|
20
— Soit Y = X 2 . La fonction g est décroissante sur R− et croissante sur R+ .
Le changement de variable y = x2 donne alors
Z 0 Z +∞
E(h(Y )) = h(x2 )fX (x)dx + h(x2 )fX (x)dx
−∞ 0
+∞ +∞
√ √
Z Z
1 1
= h(y)fX (− y) √ dy + h(y)fX ( y) √ dy
0 2 y 0 2 y
et on en déduit
√ √ 1
fY (y) = (fX (− y) + fX ( y)) √ 1]0,+∞[
2 y
Dans le cas des vecteurs aléatoires, l’idée est la même. Soit X = (X1 , . . . , Xn ),
un vecteur aléatoire de densité fX sur Rn , g une fonction de Rn dans Rm et
Y = g(X). Plusieurs cas sont à considérer :
21
3. m < n, on commence par “compléter” Y , en essayant de construire une
application g ′ de Rn dans Rn dont les m premières composantes coïncident
avec les composantes de g et pour laquelle on peut appliquer l’une des
deux formules précédentes. On obtient ainsi la densité fY′ de Y ′ = g ′ (X)
puis on obtient la densité de Y en calculant sa loi marginale :
Z
fY (y1 , . . . , ym ) = fY ′ (y1 , . . . , ym , ym+1 , . . . yn )dym+1 . . . dyn .
Rn−m
22
Exercices complémentaires
Durée de vie
La durée de vie, exprimée en années, d’un circuit électronique est une variable
aléatoire T dont la fonction de répartition F est définie par :
2
F (t) = (1 − e−t /2
)1t≥0
Question 2 Sachant que le circuit a déjà fonctionné durant 1 an, quelle est la
probabilité qu’il continue à fonctionner encore durant au moins 2 ans ? La loi
est-elle sans mémoire ?
Un équipement électronique E est composé de 10 circuits identiques et indépen-
dants. Au circuit i(1 ≤ i ≤ 10) est associée la variable aléatoire Xi , avec Xi = 1
si la durée de vie du circuit i est inférieure à un an et Xi = 0 sinon. (Solution p.
34.)
23
Question 4 Selon mêmes hypothèses, calculer la hauteur minimale des quais
pour que la probabilité de voir la Seine déborder sur une période de n années
soit inférieure à 1/1000. (Solution p. 35.)
Symétrie de la gaussienne
Soit X une variable aléatoire réelle de loi Normale centrée réduite, dont la densité
est notée f et la fonction de répartition F . Pour tout c > 0 on pose
X si |X| > c,
Xc :=
−X si |X| ≤ c.
Loi du χ2
On considère une variable aléatoire X gaussienne centrée réduite. On note f sa
densité et F sa fonction de répartition.
24
A 1 degré de liberté
1. Calculer la densité de la variable aléatoire Y := X 2 . En donner une
faisant apparaître la fonction gamma (on rappelle que Γ 21 =
expression
√
π).
On dit que Y suit une loi du χ2 à 1 degré de liberté, et on note Y ∼ χ2 . (Solution
p. 39.)
On dit que Y suit une loi du χ2 à n degrés de liberté et on note Y ∼ χ2n . (Solution
p. 40.)
Préliminaires
1. Rappeler la loi de la variable aléatoire s X + m, où s, m ∈ R.
(Solution p. 41.)
2. Montrer
Pn que pour Sna suit une loi Normale d’espérance nulle et de variance
2
i=1 ai (on pourra raisonner par récurrence sur n).
3. Soient a, b ∈ (R∗ )n . Sous quelle condition a-t-on Cov Sna , Snb = 0 ?
(Solution p. 42.)
25
Loi de Maxwell
On désire déterminer la distribution des vitesses des molécules d’un gaz mono-
atomique parfait à l’équilibre (loi de Maxwell (1859)).
On représente la vitesse d’une molécule d’un gaz monoatomique parfait à l’équi-
libre dans un repère orthonormal par un vecteur aléatoire V = (V1 , V2 , V3 ). Le
choix du repère étant arbitraire, il est naturel de supposer que la loi de V est
invariante par rotation (autour de l’origine) et que les composantes de V sont
indépendantes.
Partie 1
Soit (X, Y, Z) un vecteur aléatoire à valeurs dans R3 de densité f(X,Y,Z) . Ce
vecteur aléatoire est supposé invariant par rotation : il existe une fonction
ϕ : [0, +∞[ → ]0, +∞[ (strictement positive) telle que
Question 3 En déduire que le vecteur (X, Y, Z) suit une loi gaussienne d’es-
pérance l’origine p
dont on précisera la matrice de covariance en fonction de la
constante σ = 1/ |c|. (Solution p. 45.)
Partie 2
On suppose que le vecteur aléatoire (X, Y, Z) = V vérifie les hypothèses des
questions précédentes.
26
T la température du gaz, en déduire la valeur de σ 2 en fonction de k, T et m.
(Solution p. 45.)
(Solution p. 45.)
Solutions
Exercices essentiels
Approximation par une constante On a
E((X − a)2 ) = E((X − E(X) + E(X) − a)2 = E((X − E(X))2 ) + (E(X) − a)2
et
Cov(U, V )
ρ(U, V ) = p p = −1
V(U ) V(V )
27
Coefficient de corrélation On déduit de l’inégalité de Cauchy-Schwarz (p.
7) que
p
E((X − E(X))(X − E(Y ))) E((X − E(X))2 )E((X − E(Y ))2 )
|ρ(X, Y )| = p ≤ p =1
V(X)V(Y ) V(X)V(Y )
28
Moments d’une v.a. gaussienne
R +∞ Pour s’assurer qu’il s’agit bien d’une
densité, on remarque que I = −∞ f (x)dx vérifie
Z +∞ Z +∞ Z 2π Z +∞
1 −r2 /2
I2 = f (x)f (y)dxdy = dθ re dr
−∞ −∞ 0 0 2π
(en passant en coordonnées polaires dans l’intégrale double). Le calcul est ensuite
aisé et on obtient I = 1.
Pour les moments, on fait d’abord le calcul dans le cas centré réduit (µ = 0 et
σ 2 = 1) puis on s’y ramène par le changement de variable x 7→ x−µ
σ . Soit donc
X ∼ N (0, 1), on a
Z +∞
x 2
E(X) = √ e−x /2 dx
−∞ 2π
+∞
1 2
= − √ e−x /2 = 0.
2π −∞
et
+∞
x2
Z
2
V(X) = E(X ) = 2
√ e−x /2 dx
−∞ 2π
+∞ Z +∞
x 2 1 2
= − √ e−x /2 + √ e−x /2 dx
2π −∞ −∞ 2π
= 0 + 1.
Loi de Cauchy L’angle θ est une variable aléatoire uniforme sur [−π/2, π/2],
de densité g(θ) = π1 1[−π/2,π/2] (θ). L’abscisse X est donnée par X = tan θ, c’est
donc une variable aléatoire, de fonction de répartition
F (x) = P(X ≤ x)
= P(θ ≤ arctan x)
Z arctan x
1
= 1[−π/2,π/2] (θ)dθ
−∞ π
1 1
= arctan x + .
π 2
29
Calcul de l’aire d’un triangle Si la fonction 1D est intégrable, alors le
théorème de Fubini est applicable (p. ??). On a donc
Z Z
a(T ) = 1T (x, y) dx dy.
R R
Or, si 0 ≤ y ≤ 1,
1 si 0 ≤ x ≤ 1 − y,
1T (x, y) =
0 sinon.
et dans le cas contraire, 1T (x, y) = 0. On a donc
1 1−y Z 1 1
y2
Z Z
1
a(T ) = dx dy = (1 − y) dy = y − = .
0 0 0 2 0 2
Contre-exemple Pour tout y ∈ ]0, 1] (et donc presque tout y ∈ [0, 1]), on a
1 1
x2 − y 2
Z
x 1
2 2 2
dx = x 7→ − 2 2
=− ,
0 (x + y ) x +y 0 1 + y2
par conséquent
Z 1 Z 1 Z 1
x2 − y 2
dy π
2 2 2
dx dy = − 2
= −[y 7→ arctan y]10 = − .
0 0 (x + y ) 0 1+y 4
En exploitant la relation
x2 − y 2
∂ y
=
(x2 + y 2 )2 ∂y x2 + y 2
30
Homothétie Si l’on pose D1 = Rn , D2 = Rn , l’application h : D1 → D2
définie par h(x) = αx est un C 1 -difféomorphisme. De plus, on a
α 0 ··· 0
0 α ... 0
n n
| det Jh (x)| = det . . .. = |α | = α .
..
.. .. . .
0 0 ... α
soit Z Z
1
f (αx) dx = n f (y) dy.
Rn α Rn
L’ensemble translaté A + u = h−1 (A) est donc mesurable, de volume fini égal au
volume de A.
31
de variables (p. 12) à la fonction f , ce qui fournit
Z Z
f (x, y) d(x, y) = f (h(r, θ))| det Jh (r, θ)|d(r, θ)
C
ZP
= g(r, θ)r d(r, θ).
P
32
Lancer de fléchette (fin) En coordonnées polaires, le domaine D est décrit
par D = {(r, θ) ∈ [0, 1] × [0, 2π]}. La densité de (R, θ) s’écrit ainsi :
r 1
f(R,θ) (r, θ) = 1D (r cos(θ), r sin(θ)) = 2r1[0,1] (r) 1[0,2π] (r).
π 2π
1
Ainsi R et Θ sont indépendantes de densités respectives 2r1[0,1] (r) et 2π 1[0,2π] (θ).
Loi bêta On note d’abord que la dimension de Y est plus petite que celle de X.
On va donc compléter Y en prenant
par exemple
Y ′ = (Y, Z), avec Z = U + V ,
u
ce qui correspond à g(u, v) = u+v , u + v . Cette application est bijective de
2
A = ]0, +∞[ dans B = ]0, 1[ × ]0, +∞[, d’inverse g −1 (y, z) = (yz, z(1 − y)), qui
a pour jacobien z.
θ α+β α−1 β−1 −θ(u+v)
Comme fX (u, v) = Γ(α)Γ(β) u v e 1A (u, v), on a
θα+β
fY ′ (y, z) = z α+β−1 y α−1 (1 − y)β−1 e−θz 1B (y, z).
Γ(α)Γ(β)
θα+β
fZ (z) = z α+β−1 e−θz 1]0,+∞[
Γ(α + β)
33
On a ainsi démontré que si U et V sont deux variables aléatoires indépendantes
de lois respectives Γ(α, θ) et Γ(β, θ), alors U + V suit la loi Γ(α + β, θ) et est
U
indépendante de U +V qui suit une loi bêta de paramètres (α, β).
Durée de vie
2
Question 1 En dérivant, on obtient que la densité de T est f (t) = te−t /2
1t>0 .
L’espérance vaut :
Z +∞
2
E(T ) = t2 e−t /2
dt
0
h 2
i+∞ Z +∞ 2
= −te−t /2 + e−t /2 dt par intégration par parties
0 0
1 +∞ −t2 /2
Z
= e dt
2 −∞
√
2π
=
2
34
Crues centennales de la Seine
Question 1 Soit x ∈ R
FY (x) = F (Y ≤ x) = F (X1 ≤ x, . . . , Xn ≤ x)
Yn
= F (Xi ≤ x)
i=1
= F (x)n
Question 2 Soit x ∈ R
d
fY (x) = FY (x)
dx
d
= F (x)n
dx
= nf (x)F (x)n−1
1
Question 4 On cherche à déterminer x tel que P(Y > x) ≤ 1000 . Or,
Ainsi
1 1 1/n
1 − xn ≤ ⇔ (1 − ) ≤x
1000 1000
1
Question 5 On rappelle que la médiane est le réel m tel que 2 = P(Y ≤ m) =
FY (m).
On cherche donc m tel que mn = 12 , soit m = 1
21/n
.
On voit que cette valeur est plus élevée que la médiane des Xi qui vaut 12 . Elle
tend même vers 1 lorsque n tend vers l’infini.
35
Or par construction C peut s’écrire
2
σX c
C= ,
c σY2
2
où σX := V (X), σY2 := V (Y ) et c = Cov (X, Y ). Comme C est définie positive
2
elle est inversible, avec det(C) = σX σY2 − c2 > 0 et
2
−1 1 σY −c
C = 2 2 2 .
σX σY − c 2 −c σX
1 −1
= exp ×
2 (1 − ρ2 )
p
2π σX σY 1 − ρ2
(x − mX )2 (x − mX ) (y − mY ) (y − mY )2
2 − 2ρ + .
σX σX σY σY2
y − mY
Ainsi, avec le changement de variable u = on obtient
σY
Z +∞
fX (x) = fZ (x, y) dy
−∞
(x − mX )2
1
=√ exp − 2 ×
2π σX 2 σX
Z +∞ ( 2 )
1 1 x − mX
√ p exp − u−ρ du,
−∞ 2π 1 − ρ2 2 (1 − ρ2 ) σX
36
et on reconnaît dans cette dernière intégrale la densité d’une loi Normale d’espé-
x − mX
rance ρ et de variance 1 − ρ2 . Cette intégrale vaut donc 1 et on conclut
σX
que
(x − mX )2
1
fX (x) = √ exp − 2 ,
2π σX 2 σX
qui correspond à la densité d’une loi Normale d’espérance mX et de variance
2
σX .
En procédant de manière symétrique, on obtient de même que Y suit une loi
Normale d’espérance mY et de variance σY2 .
Symétrie de la gaussienne
Question 1 Nous avons admis dans le cours que la fonction de répartition Fc
de Xc caractérisait sa loi. Nous allons donc l’expliciter. Soit x ∈ R. Par définition
de la fonction de répartition d’une variable aléatoire et d’après la formule des
probabilités totales, on a
Fc (x) = P (Xc ≤ x) = P (Xc ≤ x, |X| > c) + P (Xc ≤ x, |X| ≤ c)
= P (X ≤ x, |X| > c) + P (−X ≤ x, |X| ≤ c)
= P (X ≤ x, X > c) + P (X ≤ x, X < −c) + P (X ≥ −x, −c ≤ X ≤ c) .
Or
P (c < X ≤ x) = F (x) − F (c) si x > c,
P (X ≤ x, X > c) =
0 si x ≤ c,
P (X ≤ x, X < −c) = P (X ≤ min{−c, x}) = F (min{−c, x}) ,
P (−c ≤ X ≤ c) = F (c) − F (−c) si x > c,
P (X ≥ −x, −c ≤ X ≤ c) = P (−x ≤ X ≤ c) = F (c) − F (−x) si − c ≤ x ≤ c,
0 si x < −c.
Ainsi,
37
— si x > c alors min{−c, x} = −c et
Fc (x) = F (x) − F (c) + F (min{−c, x}) + F (c) − F (−c) = F (x),
— si −c ≤ x ≤ c alors min{−c, x} = −c et
Fc (x) = F (min{−c, x})+F (c)−F (−x) = 1−F (c)+F (c)−1+F (x) = F (x)
car la densité de la loi Normale centrée réduite est paire, ce qui implique
que F (−x) = 1 − F (x) pour tout x ∈ R,
— si x < −c alors min{−c, x} = x et
Fc (x) = F (min{−c, x}) = F (x).
On en conclut que Fc = F : Xc a la même loi que X. Ce résultat est dû à la
symétrie de la densité de la loi Normale centrée réduite. On remarque d’ailleurs
que le résultat resterait inchangé si l’on prenait n’importe quelle autre loi de
densité paire !
= E X 2 − 2 E X 2 1[−c,c] (X) .
Etant donné que X est de loi Normale centrée réduite, on a directement que
E X 2 = 1; il suffit donc de calculer la dernière espérance pour obtenir le
résultat. Comme x 7→ x2 1[−c,c] (x) est bornée et continue sur R\{−c, c} (donc
continue presque partout), elle est intégrable et
Z +∞ Z c
2 2
x2 f (x) dx.
E X 1[−c,c] (X) = x 1[−c,c] f (x) dx =
−∞ −c
Or on pourra remarquer que f ′ (x) = −x f (x) puis que f ′′ (x) = (x2 − 1) f (x).
Puisque f , f ′ et f ′′ sont continues et bornées (voir l’exercice Densité et fonction
de répartition d’une loi Normale du chapitre Probabilités I) elles sont intégrables
sur des segments. On en déduit que
Z c Z c
E X 2 1[−c,c] (X) = (x2 − 1) f (x) dx +
f (x) dx
−c −c
c
= [−x f (x)]−c + F (c) − F (−c)
= −c (f (c) + f (−c)) + F (c) − F (−c)
= 2 (F (c) − c f (c)) − 1
38
par parité de f . On en conclut que Cov (X, Xc ) = 3 + 4 (c f (c) − F (c)).
La fonction g : c ∈ R∗+ 7→ 3 + 4 (c f (c) − F (c)) est continue, infiniment dérivable
et pour tout c > 0 on a g ′ (c) = −4 c2 f (c) < 0. Par conséquent, g est strictement
décroissante, avec lim+ g(c) = 1 et lim g(c) = −1. Le théorème des valeurs
c→0 c→+∞
intermédiaires nous permet de conclure qu’il existe bien un unique c0 > 0 tel
que g(c0 ) = 0.
Question 3 Les variables aléatoires X et Xc0 sont indépendantes ssi pour tous
ensembles A, B ∈ ER on a
P (X ∈ A, Xc0 ∈ B) = P (X ∈ A) P (Xc0 ∈ B) .
On en conclut que bien que Cov (X, Xc0 ) = 0, X et Xc0 ne sont pas indépen-
dantes.
Question 4 Supposons que (X, Xc0 ) soit un vecteur gaussien. Alors, puisque
Cov (X, Xc0 ) = 0, X et Xc0 sont nécessairement indépendantes. Or nous venons
de voir que ce n’était pas le cas; nous avons donc contradiction. On en conclut
que (X, Xc0 ) n’est pas gaussien.
Loi du χ2
A 1 degré de liberté
1. Soit h : R → R une fonction mesurable telle que h × f est intégrable.
Alors en opérant le changement de variable u = x2 on a
Z
E (h(Y )) = E h(X 2 ) = h(x2 ) f (x) dx
R
Z 0 Z +∞
2
= h(x ) f (x) dx + h(x2 ) f (x) dx
−∞ 0
Z +∞ +∞
√ √
Z
1 1
= h(u) f − u √ du + h(u) f u √ du.
0 2 u 0 2 u
√ √
Or f est paire, donc pour tout u ∈ R+ on a f (− u) = f ( u) et
√ 1
Z
E (h(Y )) = h(u) f u √ du.
R+ u
39
Par propriété Y possède donc une densité fY valant pour tout x ∈ R
1
√ 1 x− 2 n xo
f ( x) √ = 1 exp − si x > 0,
fY (x) = 2 2 Γ 21
x 2
0 si x ≤ 0.
Remarque. La fonction fY est bien une densité : elle est continue par morceaux
donc mesurable, puis positive, et son intégrale sur R vaut bien 1 :
Z Z +∞ 1 −1
1 x 2 n xo
fY (x) dx = 1
exp − dx
R 2Γ 2 0 2 2
Γ 12
Z +∞
1 1
−1 −u
= u 2 e du = = 1.
Γ 12 Γ 21
0
A n degrés de liberté
2. On note (Pn ) la propriété à démonter au rang n.
Initialisation. Nous avons vu à la question précédente que (P1 ) est vraie.
Hérédité. Soit maintenant n ≥ 2 et supposons (Pn−1 ) vraie. Alors Y =
Pn−1
i=1 Yi + Yn est la somme de deux variables aléatoires indépendantes, dont
la première suit un χ2n−1 de densité notée fn−1 et la seconde un χ21 de densité
notée f1 . Elle possède donc une densité, égale au produit de convolution de fn−1
et f1 : pour tout x ∈ R
Z
fY (x) = f1 (x − u) fn−1 (u) du.
R
x 1 n−1
(x − u)− 2 u 2 −1
x−u
Z n uo
fY (x) = √ exp − n−1 exp − du
2 Γ 12
2 2 2 Γ n−1 2
0 2
n xo
exp − Z x
2 −1 n−3
= n 1
n−1
(x − u) 2 u 2 du.
2 Γ 2 Γ 2
2
0
u
Avec le changement de variable v = on obtient
x
n
n xo
x 2 −1 exp − Z 1
2 n−3 −1
fY (x) = n 1
n−1 v 2 (1 − v) 2 dv.
22 Γ 2 Γ 2 0
40
Or fY est une densité, son intégrale vaut donc 1 :
Z +∞ x n2 −1 exp − x Z 1
n o
Z
1
fY (x) dx = 2 n−3
v 2 (1 − v)
− 2
dv dx
n
2 2 Γ 12 Γ n−1
R 0 2 0
Z +∞ x n2 −1 exp − x
n o
Z 1
n−3 1
=
−
v 2 (1 − v) 2 dv 2 dx
n
2 2 Γ 12 Γ n−1
0 0 2
Z 1 Z +∞ n −1 !
n−3 − 1 x 2 exp {−x}
v 2 (1 − v) 2 dv dx
Γ 12 Γ n−1
0 0 2
!
Γ n2
Z 1
n−3 − 21
= v 2 (1 − v) dv = 1.
Γ 21 Γ n−1
0 2
On en déduit que
1 1 n−1
Γ Γ
Z
n−3 − 21 2
v 2 (1 − v) dv = n
2 ,
0 Γ 2
41
qui en posant le changement de variable v = s x + m donne
Z x
1 u−m
P (s X + m ≤ x) = f dx.
−∞ |s| s
(x − m)2
1 u−m 1
f =√ exp − .
|s| s 2 π |s| 2 s2
Combinaisons linéaires
2. Commençons par supposer que pour tout n ∈ N∗ , a ∈ Rn est tel qu’aucune
de ses composantes n’est nulle. Nous allons montrer par récurrence
Pn sur
n que Sna suit une loi Normale d’espérance nulle et de variance i=1 a2i .
On note cette propriété (Pn ).
Initialisation.
— Si n = 1 et a1 ̸= 0, alors S1a = a1 X1 suit une loi Normale centrée de
variance a21 d’après la question 1; (P1 ) est donc vraie.
— Si n = 2 et a1 , a2 ̸= 0, alors d’après le cours S2a = a1 X1 + a2 X2 admet
une densité, notée fna , égale au produit de convolution des densités f1 de
a1 X1 et f2 de a2 X 2 . En outre, d’après la 1, pour tout x ∈ R
question
1 x 1 x
on a f1 (x) = f et f2 (x) = f . Par conséquent, pour
|a1 | a1 |a2 | a2
tout x ∈ R,
x−u
Z Z
1 u
f2a (x) = f1 (x − u) f2 (u) du = f f du
R R |a1 | |a2 | a1 a2
x−u
!Z p
2 2 f
1 x a1 + a2 a1 u
=p 2 f p !f du.
a1 + a22 a21 + a22 R |a 1 | |a2 | x a2
f p 2
a1 + a22
42
Or pour tout x, u ∈ R on a
(x − u)2
x−u
f exp −
2 a21 u2
a1 u 1
!f =√ exp −
x2 2 a22
x a2 2π
f p 2 exp −
a1 + a22 2 (a21 + a22 )
1 (x − u)2 u2 x2
1
=√ exp − + −
2π 2 a21 a22 a21 + a22
2
( )
1 a2 x − (a2 + a2 ) u
=√ exp − 2 2 2 1 2 2 2
2π 2 a1 a2 (a1 + a2 )
2
a22 x
u− 2
1 a1 + a22
=√ exp − ,
2π a21 a22
2
a21 + a22
p
a21 + a22
qui multiplié par correspond à la densité d’une loi Normale
|a1 | |a2 |
a2 x a2 a2
d’espérance 2 2 2 et de variance 2 1 2 2 . La précédente intégrale vaut
a1 + a2 a1 + a2
donc 1 et (P2 ) est vraie.
Héritage. Soit maintenant n ≥ 2, et supposons (Pn−1 ) vraie. Alors Sna =
a−n a−n
Sn−1 + an Xn , où a−n := (a1 , . . . , an−1 ). Or Sn−1 et an Xn sont des variables
Pn−1
gaussiennes centrées, de variances respectives i=1 a2i d’après (Pn−1 ) et a2n
d’après
Pn la question 1. Par (P2 ), Sna suit donc une loi Normale centrée de variance
2
i=1 ai .
43
Loi de Maxwell
Question 1 La densité du triplet (X, Y, Z) étant invariante par rotation, elle
est de la forme f(X,Y,Z) (x, y, z) = ϕ(x2 + y 2 + z 2 ). De plus, les variables X, Y et
Z étant indépendantes, on a
Soit (x0 , y0 , z0 ) ∈ R3 ; comme ϕ(x20 + y02 + z02 ) > 0 on a f(X,Y,Z) (x0 , y0 , z0 ) > 0
et donc fX (x0 ) ̸= 0, fY (y0 ) ̸= 0 et fZ (z0 ) ̸= 0. Pour tout x ∈ R3 , comme
fX (x)fY (y0 )fZ (z0 ) = ϕ(x2 + y02 + z 2 ) = ϕ(y02 + x2 + z02 ) = fX (y0 )fY (x)fZ (z0 ),
on a l’égalité
fX (y0 )
fX (x) = fY (x).
fY (y0 )
Comme on a par ailleurs
Z +∞ Z +∞
fX (x) dx = fY (x) dx = 1,
−∞ −∞
il est nécessaire que le ratio fX (y0 )/fY (y0 ) soit égal à 1. On a donc fX = fY ; la
preuve que fY = fZ s’obtient de manière similaire.
Pour finir, puisque pour tout x ∈ R on a f (x)3 = f(X,Y,Z) (x, x, x) = ϕ(3x2 ) > 0,
la fonction f est bien positive en tout point.
Question 2 L’égalité
implique f (x)f ′ (y)f (z) = 2yϕ′ (x2 +y 2 +z 2 ) et f ′ (x)f (y)f (z) = 2xϕ′ (x2 +y 2 +z 2 ).
On en déduit que
44
et donc 2
f (x) = f (0)ecx /2
,
cx2 /2
ce qui est bien la forme cherchée f (x) = ae .
R
Question 3 Comme R
f (x)dx = 1, on a nécessairement c < 0 et on en déduit
que
x2
1
f (x) = √ exp − 2 .
2πσ 2 2σ
Les variables aléatoires X, Y et Z suivent donc loi gaussienne centrée et la
covariance du vecteur est σ 2 I3 , où I3 est la matrice identité.
Question 4 On a
1 1
mE(∥V ∥2 ) = mE(V12 + V22 + V32 ).
2 2
Comme E(Vi2 ) = σ 2 , on en déduit que Ec = 32 mσ 2 et par conséquent que
kT
σ2 = .
m
À l’aide de la √
méthode de la fonction muette, en appliquant le changement de
variable v = x sur R∗+ et avec σ 2 = kTm , on montre enfin que ∥V ∥ est une
variable de densité :
√
2 m 3/2 2 −mv2 /2kT
f∥V ∥ (v) = √ v e 1]0,+∞[ (v).
π kT
Il s’agit de la densité de la loi de Maxwell.
45