0% ont trouvé ce document utile (0 vote)
62 vues45 pages

Probabilité II

Transféré par

Nizar Sahid
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
62 vues45 pages

Probabilité II

Transféré par

Nizar Sahid
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Probabilités II

STEP, MINES ParisTech∗

9 novembre 2023 (#0ccd6e7)

Table des matières


Objectifs d’apprentissage 3

Moments d’une variable aléatoire 4


Espérance d’une variable aléatoire réelle . . . . . . . . . . . . . . 4
Interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Propriétés de base . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Rappel : cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
La variance est positive . . . . . . . . . . . . . . . . . . . . . . . 6
Variable centrée réduite . . . . . . . . . . . . . . . . . . . . . . . 6
Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . 7
Espérance de g(X) . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Cas particulier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Exemples de loi à densité . . . . . . . . . . . . . . . . . . . . . . . . . 9
Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Loi gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Estimation statistique . . . . . . . . . . . . . . . . . . . . . . . . 11

Rappels sur les intégrales multiples 11


Théorème de Fubini (pour les probabilités) . . . . . . . . . . . . 11
Changement de variables . . . . . . . . . . . . . . . . . . . . . . . 12
∗ Ce document est un des produits du projet ‡ paulinebernard/CDIS issu de la collaboration

de (P)auline Bernard (CAS) et (T)homas Romary (GEOSCIENCES). Il dérive du projet ‡


boisgera/CDIS, initié par la collaboration de (S)ébastien Boisgérault (CAOR), (T)homas
Romary et (E)milie Chautru (GEOSCIENCES), (P)auline Bernard (CAS), avec la contribution
de Gabriel Stoltz (Ecole des Ponts ParisTech, CERMICS). Il est mis à disposition selon les
termes de la licence Creative Commons “attribution – pas d’utilisation commerciale – partage
dans les mêmes conditions” 4.0 internationale.

1
Vecteurs aléatoires 14
Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Vecteur aléatoire à densité . . . . . . . . . . . . . . . . . . . . . . 14
Fonction d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . 14
Densités marginales . . . . . . . . . . . . . . . . . . . . . . . . . 15
Démonstration . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Réciproque ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Moments d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . 16
Vecteur espérance et covariance . . . . . . . . . . . . . . . . . . . 16
Matrice de covariance . . . . . . . . . . . . . . . . . . . . . . . . 16

Variables aléatoires indépendantes 17


Vecteurs aléatoires indépendants . . . . . . . . . . . . . . . . . . 17
Caractérisation de l’indépendance – cas à densité . . . . . . . . . 18
Fonctions de vecteurs aléatoires indépendants . . . . . . . . . . . 18
Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Covariance de variables aléatoires indépendantes . . . . . . . . . 19
Remarque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Identification de densité 19
Méthode de la fonction muette . . . . . . . . . . . . . . . . . . . 20

Exercices complémentaires 23
Durée de vie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Crues centennales de la Seine . . . . . . . . . . . . . . . . . . . . . . . 23
Indépendance et vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . 24
Symétrie de la gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . 24
Loi du χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Combinaisons linéaires de variables Gaussiennes indépendantes . . . . 25
Loi de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Partie 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Partie 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Solutions 27
Exercices essentiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Moments d’une variable aléatoire de loi uniforme sur [a, b] . . . . 28
Durée de vie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Crues centennales de la Seine . . . . . . . . . . . . . . . . . . . . . . . 35
Indépendance et vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . 35
Symétrie de la gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . 37
Loi du χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Combinaisons linéaires de variables Gaussiennes indépendantes . . . . 41
Loi de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

2
Objectifs d’apprentissage
Moments d’une variable aléatoire
— • connaître la définition de l’espérance d’une variable aléatoire
— • connaître l’interprétation de l’espérance
— • connaître les propriétés de base de l’espérance
— • connaître la définition de la variance d’une variable aléatoire
— • savoir que la variance est toujours positive
— • savoir ce que signifie variable centrée-réduite
— • connaître la définition de la covariance
— • savoir que la covariance est une forme bilinéaire
— • connaître et savoir manipuler l’inégalité de Cauchy-Schwarz
— •• connaître les conditions d’existence de l’espérance d’une fonction
(mesurable) d’une variable aléatoire
— •• savoir exprimer la probabilité d’un événement de la forme X ∈ A sous
la forme d’une espérance
— •• connaître et savoir calculer les moments des lois usuelles

Vecteurs aléatoires
— • savoir que les composantes d’un vecteur aléatoire sont des variables
aléatoires définies sur le même espace de probabilité
— • connaître la définition d’un vecteur aléatoire à densité
— •• connaître les conditions d’existence de l’espérance d’une fonction
(mesurable) d’un vecteur aléatoire à densité
— •• savoir calculer les densités marginales d’un vecteur aléatoire à densité
— •• savoir qu’un couple de variables aléatoires à densité n’admet pas
nécessairement de densité
— • connaître la définition de l’espérance d’un vecteur aléatoire à densité
— • connaître la définition de la matrice de covariance d’un vecteur aléatoire
à densité
— • savoir que la matrice de covariance est semi-définie positive

Variables et vecteurs aléatoires indépendantes


— • connaître la définition de l’indépendance de deux vecteurs/variables
aléatoires
— • savoir caractériser l’indépendance de deux vecteurs/variables aléatoires
à densité
— •• savoir que si X et Y sont indépendantes, alors g(X) et h(Y ) sont aussi
indépendantes
— •• savoir que si X et Y sont indépendantes et si g(X) et h(Y ) sont
intégrables alors E(g(X)g(Y )) = E(g(X))E(g(Y ))
— • savoir que la covariance de deux variables indépendantes est nulle
— •• savoir que la réciproque est fausse et connaître un contre-exemple

Identification de densité

3
— •• savoir identifier la densité d’une fonction d’une variable aléatoire par
la méthode de la fonction muette
— •• savoir identifier la densité d’une fonction d’un vecteur aléatoire par la
méthode de la fonction muette

Moments d’une variable aléatoire


La loi de probabilité d’une variable aléatoire définie sur l’espace probabilisé
(Ω, A, P) va nous permettre de calculer aisément des grandeurs caractéristiques
telles que sa valeur moyenne et sa variance (lorsqu’elles existent). Elles sont
définies ci-dessous.

Définition – Espérance d’une variable aléatoire réelle

R variable aléatoire X : Ω → R de loi PX est dite intégrable si l’intégrale


La
R
|x|dPX (x) est définie, autrement dit si x est PX -intégrable. On définit alors
son espérance par
Z Z
E(X) = xdPX (x) = X(ω)dP(ω)
R Ω

Si la variable aléatoire X admet une densité R f par rapport à la mesure de


Lebesgue, elle sera intégrable si l’intégrale R |x|f (x)dx est définie, autrement
dit si le produit xf (x) est intégrable par rapport à la mesure de Lebesgue. Son
espérance vaut alors Z
E(X) = xf (x)dx
R

Remarque – Interprétation
E(X) est un nombre réel qui donne une valeur moyenne résumant la variable
aléatoire X.
L’espérance mathématique d’une variable aléatoire est un concept fondamental
de la théorie des probabilités. La dénomination d’espérance pour cette quantité
fait référence aux problèmes de jeux et d’espérance de gain. Cette terminologie
imagée a été introduite par Pascal.
On note L1 l’ensemble de toutes les variables réelles X intégrables. Les propriétés
suivantes découlent directement des propriétés de l’intégrale.

Proposition – Propriétés de base


— L1 est un espace vectoriel et ∀X, Y ∈ L1 , ∀a, b ∈ R

E(aX + bY ) = aE(X) + bE(Y ).

4
— X ∈ L1 ⇔ |X| ∈ L1 , et dans ce cas

|E(X)| ≤ E(|X|).

— Si X ≥ 0 et X ∈ L1 , alors E(X) ≥ 0.
— Si X, Y ∈ L1 sont telles que X ≤ Y , alors

E(X) ≤ E(Y ).

— L’espérance d’une variable presque-sûrement constante est égale à cette


constante :
Si P(X(ω) = a) = 1, alors E(X) = a.
— Si ∃b ∈ R+ tel que |X| ≤ b, alors X ∈ L1 et E(X) ≤ b.

Exercice – Démontrer ces propriétés (•)

Remarque – Rappel : cas discret


Dans le cas d’une variable aléatoirePdiscrète X à valeurs dans N∗ , son espérance
est définie par la quantité E(X) = i∈N∗ iP(X = i), pourvu que celle-ci soit finie.
On voit immédiatement que les propriétés ci-dessus sont également vérifiées.
Outre l’espace L1 , nous pouvons définir l’espace L2 des variables aléatoires réelles
dont le carré X 2 est dans L1 .

Définition – Variance

R aléatoire X R: Ω → R de loi PX est dite de carré intégrable si


La variable
E(X 2 ) = R x2 PX (dx) = Ω X 2 (ω)P(dω) < +∞. Sa variance est définie par

V(X) = E((X − E(X))2 )

Si la variable aléatoire X admet une densité f par rapport à la mesure de


Lebesgue, elle sera de carré intégrable si E(X 2 ) = R x2 f (x)dx est définie,
R

autrement dit si le produit x2 f (x) est intégrable par rapport à la mesure de


Lebesgue.

Proposition – Propriétés
L2 est un sous-espace vectoriel de L1 , et si X ∈ L2 ,
p
|E(X)| ≤ E(|X|) ≤ E(X 2 )

Démonstration Soient X et Y deux variables aléatoires réelles de L2 et a ∈ R.


Comme (aX + Y )2 ≤ 2a2 X 2 + 2Y 2 , alors aX + Y ∈ L2 . Ainsi, L2 est un espace
vectoriel.

5
L’inclusion L2 ⊂ L1 découle de |X| ≤ 1 + X 2 et de la proposition précédente (p.
4) (linéarité).
La première inégalité a déjà été vue ci-dessus (p. 4). Pour la seconde, nous
pouvons nous limiter au cas où X est positive. Soit alors a = E(X) et Y = X − a.
Par linéarité, on a

E(Y 2 ) = E(X 2 ) − 2aE(X) + a2 = E(X 2 ) − a2 .

Et E(Y 2 ) ≥ 0 par le troisième point de la proposition ci-dessus (p. 4). Par


conséquent, E(X)2 = a2 ≤ E(X 2 ) ce qui est le résultat recherché. ■

Exercice – Approximation par une constante (•) Soit X une v.a. de carré
intégrable. Montrer que E((X − a)2 ) atteint son minimum lorsque a = E(X).
(Solution p. 27.)

Remarque – La variance est positive


En vertu de cette proposition (p. 5), V(X) est positive et sa racine carrée σX
s’appelle l’écart-type de X. L’écart-type est une grandeur qui mesure la moyenne
(en un certain sens) de l’écart des valeurs de X à sa moyenne, d’où son nom.
On a également
V(X) = E(X 2 ) − E(X)2
que l’on obtient en développant (X −E(X))2 . Cette manipulation anodine est fort
utile dans la pratique. On retiendra que “La variance est égale à la moyenne des
carrés moins le carré de la moyenne”. On désigne le terme E(X 2 ) par l’expression
moment d’ordre deux tandis que la variance est parfois appelée moment centré
d’ordre deux.

Remarque – Variable centrée réduite


D’après ce qui précède, si X est une variable aléatoire de carré intégrable,
d’espérance E(X) et d’écart-type σX > 0, alors la variable aléatoire

X − E(X)
σX
est d’espérance nulle et de variance 1. On dira qu’une telle variable aléatoire est
centrée et réduite.
On peut remarquer que si X et Y sont dans L2 , la variable aléatoire XY est
dans L1 , puisque |XY | ≤ 12 (X 2 + Y 2 ). On peut ainsi définir la covariance de
deux variables aléatoires :

6
Définition – Covariance
Si X et Y sont dans L2 , la variable aléatoire (X −E(X))(Y −E(Y )) est intégrable.
On appelle la covariance de X et Y l’espérance de cette variable aléatoire et on
la note :
Cov(X, Y ) = E((X − E(X))(Y − E(Y ))).
Le coefficient de corrélation des variables aléatoires X et Y est le nombre

Cov(X, Y )
ρ(X, Y ) = p p
V(X) V(Y )

qui est bien défini lorsque V(X) > 0 et V(Y ) > 0.

Exercice – Calcul d’une covariance (•) Soit U ∼ U[0,1] et V = 1 − U .


Calculer Cov(U, V ) et ρ(U, V ). (Solution p. 27.)
Du fait de la linéarité de l’espérance, on a

Cov(X, Y ) = E(XY ) − E(X)E(Y )

et d’ailleurs, on voit que la formule de calcul de la variance donnée plus haut est
un cas particulier de cette formulation car V(X) = Cov(X, X). La linéarité de
l’espérance nous donne encore pour a, a′ , b, b′ ∈ R

E((aX + b)(a′ Y + b′ )) = aa′ E(XY ) + ab′ E(X) + a′ bE(Y ) + bb′


E(aX + b)E(a′ Y + b′ ) = aa′ E(X)E(Y ) + ab′ E(X) + a′ bE(Y ) + bb′

On en déduit que la covariance est une forme bilinéaire sur l’espace vectoriel des
variables aléatoires de carré intégrable, et nous avons

Cov(aX + b, a′ Y + b′ ) = aa′ Cov(X, Y )

En particulier, on a
V(aX) = a2 V(X)
On en déduit que les coefficients de corrélation de X et Y et de aX + b et a′ Y + b′
sont égaux lorsque aa′ > 0.

Proposition – Inégalité de Cauchy-Schwarz


Soit X et Y deux variables aléatoires de carré intégrable, alors on a l’inégalité
de Cauchy-Schwarz :
p
|E(XY )| ≤ E(|XY |) ≤ E(X 2 )E(Y 2 )

avec égalité si et seulement si X et Y sont presque-sûrement proportionnelles.

7
Démonstration La première inégalité a été démontrée plus haut. Pour la
seconde, on a ∀x ∈ R d’après la linéarité de l’espérance :

x2 E(X 2 ) + 2xE(XY ) + E(Y 2 ) = E((xX + Y )2 ) ≥ 0.

Mais ceci n’est possible que si ce trinôme en x n’a au plus qu’une seul racine
réelle ; son discriminant

4 (E(XY ))2 − E(X 2 )E(Y 2 )




doit donc être négatif ou nul ce qui donne le résultat.


Le discriminant est nul si et seulement si le trinôme admet une racine double x0
et dans ce cas, Y (ω) = −x0 X(ω) pour presque tout ω. ■

Exercice – Coefficient de corrélation (•) Montrer que le coefficient de


corrélation de X et Y vérifie

−1 ≤ ρ(X, Y ) ≤ 1.

(Solution p. 28.)
Enfin, il peut être intéressant de pouvoir calculer l’espérance d’une fonction
mesurable d’une variable aléatoire réelle qui est une variable aléatoire en vertu
de la proposition de composition.

Proposition – Espérance de g(X)


Soit X une variable aléatoire réelle de loi PX , et g une fonction mesurable
de (R, B(R)) dans (R, B(R)). Alors g(X) est PX - intégrable si et seulement si
l’intégrale Z
|g(x)|dPX (x),
R
est définie et dans ce cas
Z Z
E(g(X)) = g(x)dPX (x) = g(X(ω))dP(ω)
R Ω

Si PX admet une densité f par rapport à la mesure de Lebesgue, alors g(X) est
PX - intégrable si et seulement si le produit f g est intégrable par rapport à la
mesure de Lebesgue. On a alors :
Z Z Z
E(g(X)) = g(x)dPX (x) = g(x)f (x)dx = g(X(ω))dP(ω)
R R Ω

8
Démonstration On rappelle que la loi de probabilité PX est définie pour
B ∈ B(R) par PX (B) = P(X −1 (B)). Par conséquent
Z
E(1B (X)) = P(X −1 (B)) = PX (B) = 1B (X)dP(x).
R

Ainsi, si g est une fonction étagée positive (g ∈ E + ), on obtient le résultat voulu


par linéarité.
Si g est positive, soit (gn )n∈N⋆ une suite croissante de fonctions étagées positives
convergeant simplement vers g. On a alors

E(g(x)) = E( lim gn (X))


n→∞
= lim E(gn (X)) par le théorème de convergence monotone
n→∞
Z
= lim gn (x)dPX (x)
n→∞ R
Z
= lim gn (x)dPX (x) par le théorème de convergence monotone
R n→∞
Z
= g(x)dPX (x).
R

Enfin, si g n’est pas positive, on utilise la décomposition g = g + − g − et on


déduit le résultat par soustraction. ■

Remarque – Cas particulier


L’espérance et la variance sont des cas particuliers de ce résultat.

Exemples de loi à densité


Nous donnons ici quelques exemples de densités de probabilité. Nous reprenons
en particulier les trois exemples de densités donnés au premier cours :

Loi uniforme
sur [a, b], où a < b et on note X ∼ U[a,b] si X est de densité

1
f (x) = 1[a,b] (x).
b−a

Exercice – Moments d’une variable aléatoire de loi uniforme sur [a, b]


(•) Soit X ∼ U[a,b] . Montrer que son espérance vaut
Z b
x a+b
E(X) = dx =
a b−a 2

9
et que sa variance vaut

(b − a)2
V(X) = E(X 2 ) − E(X)2 = .
12

(Solution p. 28.)

Loi exponentielle
de paramètre θ > 0 et on note X ∼ E(θ) si X est de densité

f (x) = θe−θx 1{x>0} (x).

Exercice – Moments d’une v.a. exponentielle (•) Montrer que son


espérance et sa variance valent
1 1
E(X) = et V(X) = 2
θ θ

(Solution p. 28.)

Loi gamma
On rappelle tout d’abord que la fonction gamma est définie pour α ∈ ]0, +∞[
par Z +∞
Γ(α) = xα−1 e−x dx.
0

En intégrant par partie, on obtient la relation Γ(α + 1) = αΓ(α), et on a Γ(1) = 1.


On en déduit que Γ(n) = (n − 1)!.
Une variable aléatoire X suit une loi gamma de paramètre d’échelle θ et d’indice
α et on note X ∼ Γ(α, θ), si sa loi admet la densité
1 α α−1 −θx
f (x) = θ x e .
Γ(α)

Exercice – Moments d’une v.a. de loi gamma (•) Soit X ∼ Γ(α, θ).
Montrer que son espérance et sa variance valent :

α α
E(X) = et V(X) = 2 .
θ θ

On remarquera que Γ(1, θ) est la loi exponentielle de paramètre θ.


Lorsque α est entier, la loi gamma permet de modéliser le temps d’attente avant
la n-ième occurence d’événements indépendants de loi exponentielle de paramètre
θ. (Solution p. 28.)

10
Loi normale
de paramètres µ et σ 2 et on note X ∼ N (µ, σ 2 ) si X est de densité
(x − µ)2
 
1
f (x) = √ exp −
2πσ 2σ 2
Son espérance et sa variance valent
E(X) = µ et V(X) = σ 2

Exercice – Moments d’une v.a. gaussienne (•) Après avoir vérifié que
f est bien une densité, calculer l’espérance et la variance de X ∼ N (µ, σ 2 )
(Solution p. 29.)

Remarque – Estimation statistique


Dans les exemples ci-dessus, on peut remarquer que les densités sont paramétrées
par des nombres réels qui sont liés directement aux valeurs de l’espérance et
de la variance de la variable. C’est très utile en statistique où l’on cherchera à
estimer la valeur de ces paramètres à partir des observations disponibles. Dans
le cas de la loi normale, la moyenne et la variance (empiriques) des échantillons
fourniront ainsi directement des estimateurs des paramètres.
Il existe des variables aléatoires qui n’ont pas d’espérance, comme le montre
l’exercice suivant.

Exercice – Loi de Cauchy (••) Un gyrophare envoie un flash lumineux


dans une direction aléatoire uniforme d’angle θ. On cherche la distribution de
l’abscisse X du point d’impact du rayon lumineux sur un écran plan infini situé
à distance 1 du gyrophare. Donner la densité de X. Calculer son espérance.
(Solution p. 29.)

Rappels sur les intégrales multiples


Dans la suite, nous aurons besoin de quelques résultats à propos des intégrales
multiples que nous reformulons ici dans le contexte des probabilités.

Théorème – Théorème de Fubini (pour les probabilités)


Soient PX et PY deux probabilités définies respectivement sur (Rn , B(Rn )) et
(Rm , B(Rm )).

1. Soient A ∈ B(Rn ) et B ∈ B(Rm ), alors


P(A × B) = PX (A)PY (B)
définit de manière unique une probabilité sur (Rn+m , B(Rn+m )) (que l’on
note aussi PX ⊗ PY ).

11
n+m
2. Soit f une fonction B(R )-mesurable positive ou PX ⊗ PY -intégrable,
alorsRla fonction x 7→ f (x, y)PY (dy) est B(Rn )-mesurable, la fonction
R

y 7→ f (x, y)PX (dx) est B(Rm )-mesurable et


Z Z Z  Z Z 
f dPX ⊗PY = f (x, y)PY (dy) PX (dx) = f (x, y)PX (dx) PY (dy)

Exercice – Calcul de l’aire d’un triangle (•) Considérons le triangle


2
T = {(x, y) ∈ R | x ≥ 0, y ≥ 0 et x + y ≤ 1}.
En supposant l’intégrale ci-dessous bien définie, calculer :
Z
a(T ) = 1T (x, y) dxdy.
R2

(Solution p. 30.)

Exercice – Contre-exemple (••) Comparer les valeurs des intégrales mul-


tiples Z 1 Z 1 Z 1 Z 1
x2 − y 2 x2 − y 2
 
2 2 2
dx dy et 2 2 2
dy dx,
0 0 (x + y ) 0 0 (x + y )
puis expliquer le résultat. Indication : on remarquera que
x2 − y 2
 
∂ x
= − 2
(x2 + y 2 )2 ∂x x + y2
(Solution p. 30.)
Pour pouvoir appliquer le théorème de Fubini, il faut savoir a priori que la
fonction est intégrable et pas seulement que ses intégrales multiples sont bien
définies (cf. “Contre-exemple” ci-dessus (p. 12)). Si la fonction est à valeurs
positives toutefois, l’examen de ses intégrales multiples permet de s’assurer de
l’intégrabilité ; c’est le théorème de Fubini-Tonelli vu dans le cours de calcul
intégral.
Autrement dit, en pratique, on appliquera Fubini-Tonelli à la valeur absolue de
la fonction pour vérifier que celle-ci est intégrable, puis Fubini, s’il est applicable,
pour effectuer le calcul de l’intégrale.

Théorème – Changement de variables


Soient D1 et D2 des ouverts de Rn et h : D1 → D2 un C 1 -difféomorphisme de
D1 sur D2 , c’est-à-dire une fonction continûment différentiable et bijective dont
l’inverse h−1 : D2 → D1 est également continûment différentiable. La matrice
jacobienne associée à la différentielle de h étant notée Jh , la fonction f : D2 → R
est intégrable si et seulement si la fonction (f ◦h)| det Jh | : D1 → R est intégrable
et dans ce cas, Z Z
f (y) dy = f (h(x))| det Jh (x)| dx.
D2 D1

12
Figure 1 – Changement de variables

Exercice – Homothétie (•) Soit f : Rn → R une fonction intégrable. Montrer


que pour tout coefficient α > 0, l’intégrale
Z
f (αx)dx
Rn

est bien définie et la calculer en fonction de l’intégrale de f sur Rn . (Solution p.


31.)

Exercice – Volume et translation (•) Montrer que si A est mesurable et


de volume fini dans R3 l’image de A par une translation est également mesurable
et de même volume. (Solution p. 31.)

Exercice – Coordonnées polaires (••) Soit


C = {(x, y) ∈ R2 | y ̸= 0 ou x > 0} et P = {(r, θ) ∈ R2 | r > 0 et −π < θ < π}.
On note h la fonction de P dans C définie par h(r, θ) = (r cos θ, r sin θ). Montrer
que pour toute fonction f : C → R intégrable, si l’on pose g(r, θ) = f (x, y) où
(x, y) = h(r, θ), alors
Z Z
f (x, y) d(x, y) = g(r, θ)r d(r, θ).
C P

(Solution p. 31.)

Exercice – Absence du déterminant jacobien (••) Supposons D1 , D2 , h


et f conformes aux hypothèses du théorème de changement de variables (p. 12).
On suppose de plus que f ◦ h est intégrable sur D1 . Exprimer l’intégrale
Z
f (h(x)) dx
D1

comme une intégrale sur D2 . (Solution p. 32.)

13
Vecteurs aléatoires
Nous allons généraliser ici la notion de variable aléatoire en considérant qu’elle
peut prendre ses valeurs dans Rn . Les vecteurs aléatoires se rencontrent naturelle-
ment lorsqu’on s’intéresse à plusieurs quantités conjointement, par exemple dans
le cas de la météo, la température, la pluviométrie et la vitesse et la direction
du vent.

Définitions
Une variable aléatoire X à valeurs dans Rn (ou vecteur aléatoire) est simplement
une collection de n variables réelles définies sur le même espace probabilisé
(Ω, A, P), qui sont les composantes de X. On écrit X = (X1 , . . . , Xn ).
De même qu’en dimension 1, la loi de X est caractérisée par la fonction de
répartition multi-dimensionnelle F : Rn → R définie par

F (x1 , . . . , xn ) = PX (X1 ≤ x1 , . . . , Xn ≤ xn )

Cependant, caractériser les fonctions de répartition sur Rn est délicat, de sorte


que cette notion est rarement utilisée. Nous allons plus particulièrement nous
intéresser aux vecteurs aléatoires à densité. On gardera tout de même à l’esprit
que les lois de probabilités définies sur (Rn , B(Rn )) n’admettent pas toutes une
densité !

Définition – Vecteur aléatoire à densité


On dit que X admet la densité f si la fonction réelle f sur Rn est positive,
intégrable et vérifie
Z Z +∞ Z +∞
f (x)dx = ... f (x1 , . . . , xn )dx1 . . . dxn = 1
Rn −∞ −∞

et si
Z x1 Z xn
PX (X1 ≤ x1 , . . . , Xn ≤ xn ) = ... f (x1 , . . . , xn )dx1 . . . dxn .
−∞ −∞

De la même manière que dans le cas unidimensionnel (p. 8), on a :

Proposition – Fonction d’un vecteur aléatoire


Soit X un vecteur aléatoire de densité f , et soit g une fonction de Rn dans R,
mesurable. On a alors g(X) ∈ L1 si et seulement si
Z +∞ Z +∞
... |g(x1 , . . . , xn )|f (x1 , . . . , xn )dx1 . . . dxn ,
−∞ −∞

14
est définie et dans ce cas, on a
Z +∞ Z +∞
E(g(X)) = ... g(x1 , . . . , xn )f (x1 , . . . , xn )dx1 . . . dxn .
−∞ −∞

Pour revenir à la densité d’une composante d’un vecteur aléatoire, on intègre


par rapport aux autres variables. On le présente ici dans le cas d’un couple
Z = (X, Y ) de variables aléatoires. On généralise aisément à une dimension
supérieure.

Proposition – Densités marginales


Supposons que Z admette une densité f . Alors X et Y admettent les densités
fX et fY données par
Z Z
fX (x) = f (x, y)dy, fY (y) = f (x, y)dx.
R R

Les fonctions fX et fY s’appellent les densités marginales de f .

Démonstration
Pour tout x ∈ R, on a par définition
Z x Z 
P(X ≤ x) = P(Z ∈] − ∞, x] × R) = E(1]−∞,x]×R (Z)) = du f (u, v)dv ,
−∞ R

où l’on a utilisé le théorème de Fubini-Tonelli pour 1]−∞,x]×R


R (u, v)f (u, v) qui
est bien positive. Donc si fX est définie par fX (x) = R f (x, y)dy, on obtient
Rx
que P(X ≤ x) = −∞ fX (u)du, ce qui montre que fX est la densité de X. Le
raisonnement est analogue pour Y .

Remarque – Réciproque ?
La réciproque de cette proposition est fausse en revanche : les variables aléatoires
X et Y peuvent avoir des densités sans que le couple Z = (X, Y ) en ait une.
Supposons par exemple que X = Y . Si ∆ = {(x, x); x ∈ R} est la diagonale de
R2 , nous avons évidemment PZ (∆) = 1 mais si la proposition
R précédente (p. 14)
était valide pour PZ , on aurait PZ (∆) = E(1∆ ) = R2 1∆ fZ (z)dz = 0 car ∆ est
de volume nul dans R2 .
En particulier, il faut faire attention au fait que dans le cas général, la densité
d’un couple de variables aléatoires n’est pas le produit des densités.

15
Exercice – Lancer de fléchette (••) On lance une fléchette sur une cible
circulaire de rayon unité. Le joueur est suffisamment maladroit pour que le point
M d’impact de la fléchette soit supposé uniformément distribué sur la cible (On
décide de n’observer que les lancés qui atteignent la cible). Exprimer la densité
du couple formé par les coordonnées cartésiennes (X, Y ) de M puis leurs densités
marginales. (Solution p. 32.)

Moments d’un vecteur aléatoire


Définition – Vecteur espérance et covariance
Si les composantes Xi du vecteur aléatoire X = (X1 , . . . , Xn ) sont intégrables,
on peut définir le vecteur espérance

E(X) = (E(X1 ), . . . , E(Xn ))

Si les composantes Xi du vecteur aléatoire X = (X1 , . . . , Xn ) sont de carré


intégrable, la matrice de covariance de X est la matrice CX = (ci,j )1≤i≤n,1≤j≤n
de taille n × n et dont les éléments valent

ci,j = Cov(Xi , Xj )

Proposition – Matrice de covariance


La matrice de covariance est symétrique non-négative (ou encore semi-définie
positive).

Démonstration LaP symétrie est évidente. Non-négative signifie que pour tous
n Pn
réels a1 , . . . , an , on a i=1 j=1 ai aj ci,j ≥ 0. Un calcul simple montre que
n X
X n Xn
ai aj ci,j = V( ai Xi ) ≥ 0.
i=1 j=1 i=1

Exemple – Vecteur Gaussien n-dimensionel Un exemple important de


vecteurs aléatoires est celui des vecteurs gaussiens, que nous étudierons plus en
détail au chapitre suivant. Soient m ∈ Rn et C une matrice symétrique définie
positive (c’est-à-dire telle que pour tout x ∈ Rn non identiquement nul xt Cx > 0
où t désigne la transposée). Le vecteur X ∈ Rn est un vecteur aléatoire gaussien
d’espérance m et de matrice de covariance C si sa densité s’écrit
1 1
f (x) = p exp(− (x − m)t C −1 (x − m))
(2π)n/2 det(C) 2

On a alors E(X) = m et CX = C.

16
0.4

0.2

0
4
−4 2
−2 0
0
2 −2
4 −4

Figure 2 – Densité de probabilité de la loi normale bivariée centrée, réduite, de


coefficient de corrélation 1/2

Variables aléatoires indépendantes


Lorsqu’on modélise plusieurs variables conjointement, une hypothèse importante
est celle de l’indépendance. Ce caractère traduit l’absence de lien de causalité
entre les variables. Par exemple, on fait naturellement l’hypothèse d’indépendance
lorsque l’on considère une répétition d’une même expérience dans les mêmes
conditions.
Dans ce paragraphe, on considère un couple (X, Y ) de vecteurs aléatoires res-
pectivement à valeurs dans Rm et Rn . Les résultats s’étendent sans peine à une
famille finie quelconque.
On peut se ramener aux évènements pour caractériser l’indépendance de deux
vecteurs aléatoires. En effet, considérons le vecteur aléatoire Z = (X, Y ), A et B
deux ensembles dans B(Rm ) et B(Rn ). On a vu que les évènements X ∈ A et
Y ∈ B sont indépendants si et seulement si PZ (X ∈ A, Y ∈ B) = P(X −1 (A) ∩
Y −1 (B)) = P(X −1 (A))P(Y −1 (B)) = PX (X ∈ A)PY (Y ∈ B). Pour que deux
vecteurs aléatoires soient indépendants, on va donc demander que ceci soit valable
quels que soient A et B.

Définition – Vecteurs aléatoires indépendants


Les vecteurs aléatoires X et Y sont indépendants si pour tous ensembles A et B
des tribus correspondantes,

P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B)

17
En termes de mesures de probabilité, cette égalité s’écrit

P(X,Y ) (A × B) = PX (A)PY (B) = (PX ⊗ PY )(A × B).

Autrement dit, X et Y sont indépendantes si et seulement si la mesure de


probabilité du couple (X, Y ) est la mesure produit PX ⊗ PY dont l’existence et
l’unicité sont garanties par le théorème de Fubini (p. 11).
Cette définition se traduit dans le cas à densité dans la proposition suivante que
l’on énonce sans perte de généralité pour un couple de variables aléatoires.

Proposition – Caractérisation de l’indépendance – cas à densité


Soient X et Y deux variables aléatoires réelles de densités fX et fY . X et Y sont
indépendantes si et seulement si le couple Z = (X, Y ) a pour densité (sur R2 ) :

fZ (x, y) = fX (x)fY (y).

Démonstration S’il y a indépendance, la définition (p. 17) implique


Z x Z y
P (X ≤ x, Y ≤ y) = P (X ≤ x)P(Y ≤ y) = fX (u)du fY (v)dv
−∞ −∞

ce qui montre que PZ vérifie la définition d’un vecteur aléatoire à densité (p. 14)
avec fZ = fX fY .
Inversement, si fZ = fX fY , on a pour tous A, B de B(R)
Z Z
P(X ∈ A, Y ∈ B) = fX (x)fY (y)dxdy = P(X ∈ A)P(Y ∈ B)
A B

où on a utilisé le théorème de Fubini-Tonelli. ■

Exercice – Lancer de fléchette (suite) (•) Les coordonnées cartésiennes


(X, Y ) de M sont elles indépendantes ? (Solution p. 32.)
Considérons maintenant deux fonctions mesurables g et h définies sur Rm et Rn .

Proposition – Fonctions de vecteurs aléatoires indépendants


Avec les notations précédentes, si X et Y sont indépendantes de densités respec-
tives fX et fY , les variables aléatoires g(X) et h(Y ) sont aussi indépendantes.
Si de plus g(X) et h(Y ) sont intégrables, alors le produit g(X)h(Y ) est aussi
intégrable, et on a
E(g(X)h(Y )) = E(g(X))E(h(Y ))

18
Démonstration La première assertion est évidente par définition de l’indépen-
dance. Par ailleurs, si g(X) et h(Y ) sont intégrables, en notant f(X,Y ) la densité
du couple (X, Y ), et en utilisant le théorème de Fubini, on a
Z
E(g(X)h(Y )) = g(x)h(y)f(X,Y ) (x, y)dxdy
m+n
ZR Z
= g(x)h(y)fX (x)fY (y)dxdy
Rm Rn
Z  Z 
= g(x)fX (x)dx h(y)fY (y)dy
Rm Rn
= E(g(X))E(h(Y ))

Remarque – Cas général


Ce résultat est encore valable dans le cas général (sans densité). Il suffit de rem-
placer f(X,Y ) (x, y)dxdy par dPX,Y (x, y) = dPX (x)dPY (y) dans la démonstration
précédente.
On déduit de ce résultat et de la définition de la covariance (p. 7) que :

Corollaire – Covariance de variables aléatoires indépendantes


Si les variables aléatoires réelles X et Y sont indépendantes et de carré intégrable,
alors Cov(X, Y ) = 0 et ρ(X, Y ) = 0.

Exercice – Démonstration (•) Démontrer ce résultat. (Solution p. 32.)

Remarque
Attention, la réciproque est fausse. Par exemple, si X ∼ U[−1,1] et Y = X 2 . X
et Y ne sont clairement pas indépendantes mais on a

Cov(X, Y ) = Cov(X, X 2 ) = E(X 3 ) − E(X)E(X 2 ) = 0

Identification de densité
Un problème important est le suivant. Soit X une variable aléatoire réelle,
admettant la densité fX . Soit g une fonction mesurable, de sorte que Y = g(X)
est aussi une variable aléatoire. Est-ce que Y admet une densité, et si oui,
comment la calculer ?
On peut déjà remarquer que cette densité n’existe pas toujours. Si par exemple
g(x) = a pour tout x, la loi de Y est la mesure de Dirac en a, qui n’a pas de
densité par rapport à la mesure de Lebesgue.

19
Pour résoudre ce problème,R l’idée consiste à essayer de mettre E(h(Y )) =
E(h ◦ g(X)) sous la forme h(y)fY (y)dy pour une fonction convenable fY , et
une classe de fonctions h suffisamment grande. La fonction fY sera alors la
densité cherchée.
La proposition qui assure que g(X) est intégrable pour une variable aléatoire
réelle X (p. 8) implique
Z
E(h(Y )) = E(h ◦ g(X)) = h ◦ g(x)fX (x)dx
R

et on fait le changement de variable y = g(x) dans cette intégrale. Cela nécessite


que g soit dérivable et bijective “par morceaux”, et il faut faire très attention aux
domaines où g est croissante ou décroissante. Puisque la fonction h est arbitraire,
on appelle couramment cette technique la méthode de la fonction muette. Cette
approche résulte en fait de la proposition suivante :

Proposition – Méthode de la fonction muette


Si il existe une fonction f positive telle que pour toute fonction mesurable h
telle que h(x)f (x) soit intégrable,
Z
E(h(X)) = h(x)f (x)dx
R

alors la loi de X admet la densité f par rapport à la mesure de Lebesgue.

Démonstration Supposons qu’un tel f existe. Soit B ∈ B(R), alors 1B est


mesurable. En particulier, si B =] − ∞, x], x ∈ R, on a
Z x
P(X ≤ x) = P(X ∈ B) = PX (B) = E(1B (X)) = f (y)dy
−∞
R
Par ailleurs, prenant B = R, on a 1 = P(X ∈ R) = R
f (y)dy. Par conséquent,
PX admet la densité f . ■
Nous donnons ici quelques exemples d’application de cette méthode :
— Soit Y = aX + b, où a et b sont des constantes. Si a = 0, alors Y = b et
̸ 0, on fait le
la loi de Y est la masse de Dirac en b (sans densité). Si a =
changement de variable y = ax + b, ce qui donne
y−b 1
Z Z
E(h(Y )) = h(ax + b)fX (x)dx = h(y)fX ( ) dy
R R a |a|

Donc
y−b 1
fY (y) = fX ( )
a |a|

20
— Soit Y = X 2 . La fonction g est décroissante sur R− et croissante sur R+ .
Le changement de variable y = x2 donne alors
Z 0 Z +∞
E(h(Y )) = h(x2 )fX (x)dx + h(x2 )fX (x)dx
−∞ 0
+∞ +∞
√ √
Z Z
1 1
= h(y)fX (− y) √ dy + h(y)fX ( y) √ dy
0 2 y 0 2 y

et on en déduit
√ √ 1
fY (y) = (fX (− y) + fX ( y)) √ 1]0,+∞[
2 y

Dans le cas des vecteurs aléatoires, l’idée est la même. Soit X = (X1 , . . . , Xn ),
un vecteur aléatoire de densité fX sur Rn , g une fonction de Rn dans Rm et
Y = g(X). Plusieurs cas sont à considérer :

1. m > n, le vecteur Y n’admet pas de densité.


2. m = n, on utilise comme dans le cas unidimensionel le changement de
variable y = g(x) dans
Z
E(h(Y )) = E(h ◦ g(X)) = h ◦ g(x)fX (x)dx
Rn

Supposons d’abord que g soit une bijection continûment différentiable


de A dans B, ouverts de Rn . Sous l’hypothèse que h ◦ g(x)fX (x) soit
intégrable, le théorème de changement de variable nous assure :
Z Z
1
h ◦ g(x)fX (x)dx = h(y)fX ◦ g −1 (y) −1 (y))|
dy,
A B | det Jg (g

où Jg désigne la matrice de Jacobi associée à la différentielle de g. Dans


le cas où fX (x) = 0 en dehors de A, on obtient que Y admet la densité
1
fY (y) = 1B (y)fX ◦ g −1 (y) .
| det Jg (g −1 (y))|

Lorsque g est simplement continûment différentiable, il existe souvent


une partition finie (Ai )1≤i≤n de l’ensemble {x; f (x) > 0}, telle que g soit
bijective sur chaque Ai . On note alors Bi = g(Ai ) l’image de Ai par g. On
découpe alors l’intégrale selon les Ai , on applique la formule précédente à
chaque morceau et on somme pour obtenir :
n
X 1
fY (y) = 1Bi (y)fX ◦ g −1 (y) ,
i=1
| det Jg (g −1 (y))|

où g −1 est bien définie sur chaque Bi comme image réciproque de la


restriction de g à Ai .

21
3. m < n, on commence par “compléter” Y , en essayant de construire une
application g ′ de Rn dans Rn dont les m premières composantes coïncident
avec les composantes de g et pour laquelle on peut appliquer l’une des
deux formules précédentes. On obtient ainsi la densité fY′ de Y ′ = g ′ (X)
puis on obtient la densité de Y en calculant sa loi marginale :
Z
fY (y1 , . . . , ym ) = fY ′ (y1 , . . . , ym , ym+1 , . . . yn )dym+1 . . . dyn .
Rn−m

Exemple – Coordonnées polaires Soit X = (U, V ) un vecteur aléatoire


de R2 , et Y = (R, Θ) ses coordonnées polaires. La transformation g est un
difféomorphisme de A = R2 \ {0} dans B = ]0, +∞[ × ]0, 2π], et son inverse g −1
s’écrit : u = r cos θ, v = r sin θ. Le Jacobien de g −1 au point (r, θ) vaut r, donc
le point 2. ci-dessus entraîne que

fY (r, θ) = rfX (r cos θ, r sin θ)1B (r, θ)

 2 si2 U et V sont indépendantes et de loi N (0, 1), on a fX (u, v) =


Par exemple,
1
2π exp − u +v
2 et donc
 2
1 r
fY (r, θ) = r exp − 1]0,+∞[ (r)1]0,2π] (θ).
2π 2

 2  on remarque que R et Θ sont indépendantes de densités respectives


En particulier,
r exp − r2 1]0,+∞[ (r) et 1]0,2π] (θ).

Exercice – Lancer de fléchette (fin) (•) Donner la densité du couple (R, Θ)


des coordonnées polaires de M . Sont-elles indépendantes ? (Solution p. 33.)

Exemple – Somme de deux variables aléatoires indépendantes Soient


U et V indépendantes et admettant les densités fU et fV , on cherche la densité
de la somme Z = U + V . On commence par compléter Z en le couple T = (U, Z)
(par exemple), correspondant à la bijection g(u, v) = (u, u + v) sur R2 dont le
jacobien est 1 et d’inverse g −1 (x, y) = (x, x − y). Appliquant le point 3. ci-dessus,
on obtient :
Z Z
fZ (z) = fU (u)fV (z − u)du = fU (z − v)fV (v)dv.
R R

La fonction fZ est appelée le produit de convolution des des fonctions fU et fV .

Exercice – Loi bêta (•••) Soit X = (U, V ) un vecteur aléatoire de R2 , avec


U
U et V indépendantes de lois Γ(α, θ) et Γ(β, θ). Identifier la densité de Y = U +V ,
puis de Z = U + V . (Solution p. 33.)

22
Exercices complémentaires
Durée de vie
La durée de vie, exprimée en années, d’un circuit électronique est une variable
aléatoire T dont la fonction de répartition F est définie par :
2
F (t) = (1 − e−t /2
)1t≥0

Question 1 Donner la densité de probabilité f de T . Calculer E(T ). (Solution


p. 34.)

Question 2 Sachant que le circuit a déjà fonctionné durant 1 an, quelle est la
probabilité qu’il continue à fonctionner encore durant au moins 2 ans ? La loi
est-elle sans mémoire ?
Un équipement électronique E est composé de 10 circuits identiques et indépen-
dants. Au circuit i(1 ≤ i ≤ 10) est associée la variable aléatoire Xi , avec Xi = 1
si la durée de vie du circuit i est inférieure à un an et Xi = 0 sinon. (Solution p.
34.)

Question 3 Quelle est la loi du nombre N de circuits de E dont la durée de


vie est inférieure à 1 an ? (Solution p. 34.)

Question 4 L’équipement E est dit en série si la défaillance de l’un de ses


circuits entraîne sa défaillance. Quelle est alors la probabilité qu’il soit défaillant
avant 1 an ? (Solution p. 34.)

Question 5 L’équipement E est dit en parallèle si sa défaillance ne peut se


produire que si tous ses circuits sont défaillants. Quelle est alors la probabilité
qu’il soit défaillant avant 1 an ? (Solution p. 34.)

Crues centennales de la Seine


On suppose que la hauteur d’eau maximale au cours de l’année n est décrite
par une variable aléatoire Xn de densité f (x) et de fonction de répartition F (x),
identique pour toutes les Xn , que l’on suppose également indépendantes.

Question 1 Calculer la fonction de répartition du maximum sur n années


Y = max(X1 , . . . , Xn ). (Solution p. 35.)

Question 2 En déduire la densité de Y . (Solution p. 35.)

Question 3 Expliciter la densité de Y lorsque les Xi sont de loi uniforme sur


[0, 1]. (Solution p. 35.)

23
Question 4 Selon mêmes hypothèses, calculer la hauteur minimale des quais
pour que la probabilité de voir la Seine déborder sur une période de n années
soit inférieure à 1/1000. (Solution p. 35.)

Question 5 Toujours selon les mêmes hypothèses, calculer la médiane de Y .


La comparer avec celle des Xi . Commenter. (Solution p. 35.)

Indépendance et vecteurs gaussiens


Soit Z := (X, Y ) un vecteur gaussien (i.e. qui suit une loi Normale bi-variée)
d’espérance m et de matrice de covariance définie positive C. Notons fZ sa
densité.

Question 1 Rappeler la forme de fZ et en donner une expression non matri-


cielle faisant apparaître le coefficient de corrélation noté ρ. (Solution p. 35.)

Question 2 Expliciter les lois marginales de X et de Y . (Solution p. 36.)

Question 3 Montrer que X et Y sont indépendantes ssi Cov (X, Y ) = 0.


(Solution p. 37.)

Symétrie de la gaussienne
Soit X une variable aléatoire réelle de loi Normale centrée réduite, dont la densité
est notée f et la fonction de répartition F . Pour tout c > 0 on pose

X si |X| > c,
Xc :=
−X si |X| ≤ c.

Question 1 Déterminer la loi de Xc . (Solution p. 37.)

Question 2 Calculer la covariance de X et de Xc et montrer qu’il existe une


valeur c0 de c qui l’annule. (Solution p. 38.)

Question 3 Les deux variables X et Xc0 sont-elles indépendantes ? (Solution


p. 39.)

Question 4 Le vecteur aléatoire (X, Xc0 ) est-il gaussien ? (Solution p. 39.)

Loi du χ2
On considère une variable aléatoire X gaussienne centrée réduite. On note f sa
densité et F sa fonction de répartition.

24
A 1 degré de liberté
1. Calculer la densité de la variable aléatoire Y := X 2 . En donner une
faisant apparaître la fonction gamma (on rappelle que Γ 21 =

expression

π).
On dit que Y suit une loi du χ2 à 1 degré de liberté, et on note Y ∼ χ2 . (Solution
p. 39.)

A n degrés de liberté Soient maintenant n ∈ N∗ et X1 , . . . , Xn des copies


indépendantes de X. Pour tout i ∈ {1, . . . , n} on pose Yi := Xi2 .
Pn
2. Montrer que la variable aléatoire Y := i=1 Yi admet pour densité
n
x 2 −1 n xo
n n
 exp − si x > 0,
fY : x ∈ R 7→ 22 Γ 2 2
0 si x ≤ 0.

On pourra procéder par récurrence sur n.

On dit que Y suit une loi du χ2 à n degrés de liberté et on note Y ∼ χ2n . (Solution
p. 40.)

Combinaisons linéaires de variables Gaussiennes indépen-


dantes
Soit X une variable aléatoire de loi Normale centrée réduite, dont on note f la
densité et F la fonction de répartition.

Préliminaires
1. Rappeler la loi de la variable aléatoire s X + m, où s, m ∈ R.
(Solution p. 41.)

Combinaisons linéaires Soient maintenant n ∈ N∗ variables aléatoires


X1 , . . . , Xn indépendantes et de même loi que X (on dit que ce sont des co-
pies indépendantes
Pn de X). Pour tout vecteur a = (a1 , . . . , an ) ∈ (R∗ )n on pose
a
Sn := i=1 ai Xi .

2. Montrer
Pn que pour Sna suit une loi Normale d’espérance nulle et de variance
2
i=1 ai (on pourra raisonner par récurrence sur n).
3. Soient a, b ∈ (R∗ )n . Sous quelle condition a-t-on Cov Sna , Snb = 0 ?


(Solution p. 42.)

25
Loi de Maxwell
On désire déterminer la distribution des vitesses des molécules d’un gaz mono-
atomique parfait à l’équilibre (loi de Maxwell (1859)).
On représente la vitesse d’une molécule d’un gaz monoatomique parfait à l’équi-
libre dans un repère orthonormal par un vecteur aléatoire V = (V1 , V2 , V3 ). Le
choix du repère étant arbitraire, il est naturel de supposer que la loi de V est
invariante par rotation (autour de l’origine) et que les composantes de V sont
indépendantes.

Partie 1
Soit (X, Y, Z) un vecteur aléatoire à valeurs dans R3 de densité f(X,Y,Z) . Ce
vecteur aléatoire est supposé invariant par rotation : il existe une fonction
ϕ : [0, +∞[ → ]0, +∞[ (strictement positive) telle que

f(X,Y,Z) (x, y, z) = ϕ(x2 + y 2 + z 2 ) pour tout (x, y, z) ∈ R3 .

Question 1 On suppose de plus les variables aléatoires X, Y et Z indépen-


dantes. Montrer qu’il existe une fonction f : R → [0, +∞[ qui soit une densité
telle que

f(X,Y,Z) (x, y, z) = f (x)f (y)f (z) pour tout (x, y, z) ∈ R3 .

Montrer finalement que f (x) > 0 pour tout x ∈ R. (Solution p. 44.)

Question 2 On suppose de plus que les densités marginales de X, Y et Z


ainsi que la fonction ϕ sont continûment différentiables (c’est-à-dire de classe
C 1 ). Montrer que la densité de chacune des composantes s’écrit sous la forme
2
f (x) = aecx /2 , avec a et c deux constantes réelles. (Solution p. 44.)

Question 3 En déduire que le vecteur (X, Y, Z) suit une loi gaussienne d’es-
pérance l’origine p
dont on précisera la matrice de covariance en fonction de la
constante σ = 1/ |c|. (Solution p. 45.)

Partie 2
On suppose que le vecteur aléatoire (X, Y, Z) = V vérifie les hypothèses des
questions précédentes.

Question 4 Calculer l’énergie cinétique moyenne d’un atome du gaz, c’est-à-


dire l’espérance  
1 2
Ec := E m∥V ∥
2
où m est la masse d’un atome du gaz. L’énergie cinétique moyenne d’un atome
du gaz de masse m étant égale à 32 kT où k est la constante de Boltzmann et

26
T la température du gaz, en déduire la valeur de σ 2 en fonction de k, T et m.
(Solution p. 45.)

Question 5 On rappelle que si X et Y sont deux variables aléatoires indé-


pendantes de loi respective Γ(a, λ) et Γ(b, λ), alors la loi de X + Y est la loi
Γ(a + b, λ). On rappelle également que la densité g de la loi Γ(a, λ) vérifie
1 a a−1 −λx
g(x) = λ x e 1]0,+∞[ (x) pour tout x ∈ R,
Γ(a)

où Γ est la fonction définie par


Z +∞
Γ(a) = xa−1 e−x dx pour a ∈ ]0, +∞[ .
0

On remarquera que Γ(1/2) = π et que Γ(x + 1) = xΓ(x).
Calculer la loi de V12 . En déduire la loi de ∥V ∥2 puis la densité de ∥V ∥ =
p
V12 + V22 + V32 . La probabilité associée est appelée loi de Maxwell.

(Solution p. 45.)

Solutions
Exercices essentiels
Approximation par une constante On a

E((X − a)2 ) = E((X − E(X) + E(X) − a)2 = E((X − E(X))2 ) + (E(X) − a)2

le terme de gauche ne dépend pas de a tandis que celui de droite s’annule en


a = E(X).

Calcul d’une covariance On a

Cov(U, V ) = E((U − E(U ))(V − E(V )))


U U
= E(U V − − − E(U )E(V ))
2 2
= E(U (1 − U )) − 1/4 − 1/4 + 1/4 par linéarité et d’après la solution ci-dessous
= 1/2 − 1/3 − 1/4 = −1/12

et
Cov(U, V )
ρ(U, V ) = p p = −1
V(U ) V(V )

27
Coefficient de corrélation On déduit de l’inégalité de Cauchy-Schwarz (p.
7) que
p
E((X − E(X))(X − E(Y ))) E((X − E(X))2 )E((X − E(Y ))2 )
|ρ(X, Y )| = p ≤ p =1
V(X)V(Y ) V(X)V(Y )

Moments d’une variable aléatoire de loi uniforme sur [a, b]


Soit X ∼ U[a,b] . Son espérance vaut
Z b
x a+b
E(X) = dx =
a b−a 2
et puisque
b
x2 a2 + ab + b2
Z
E(X 2 ) = dx = ,
a b−a 3
alors sa variance vaut
(b − a)2
V(X) = E(X 2 ) − E(X)2 = .
12

Moments d’une v.a. de loi exponentielle Soit X ∼ E(θ), alors


Z +∞ Z +∞
x +∞ 1
E(X) = xθ exp(−θx)dx = [ exp(−θx)]0 + exp(−θx)dx =
0 θ 0 θ

Moments d’une v.a. de loi gamma Soit X ∼ Γ(α, β). On a


Z +∞
1
E(X) = θα xα e−θx dx
Γ(α) 0
Z +∞
1 1 α −u
= u e du par le changement de variable u = θx
Γ(α) 0 θ
Γ(α + 1) 1 α
= =
Γ(α) θ θ
puis
Z +∞
1
2
E(X ) = θα xα+1 e−θx dx
Γ(α) 0
Z +∞
1 1 α+1 −u
= u e du par le changement de variable u = θx
Γ(α) 0 θ2
Γ(α + 2) 1 α(α + 1)
= =
Γ(α) θ2 θ2
d’où
α
V(X) = E(X 2 ) − E(X)2 =
θ2

28
Moments d’une v.a. gaussienne
R +∞ Pour s’assurer qu’il s’agit bien d’une
densité, on remarque que I = −∞ f (x)dx vérifie
Z +∞ Z +∞ Z 2π Z +∞
1 −r2 /2
I2 = f (x)f (y)dxdy = dθ re dr
−∞ −∞ 0 0 2π

(en passant en coordonnées polaires dans l’intégrale double). Le calcul est ensuite
aisé et on obtient I = 1.
Pour les moments, on fait d’abord le calcul dans le cas centré réduit (µ = 0 et
σ 2 = 1) puis on s’y ramène par le changement de variable x 7→ x−µ
σ . Soit donc
X ∼ N (0, 1), on a
Z +∞
x 2
E(X) = √ e−x /2 dx
−∞ 2π
 +∞
1 2
= − √ e−x /2 = 0.
2π −∞

et
+∞
x2
Z
2
V(X) = E(X ) = 2
√ e−x /2 dx
−∞ 2π
 +∞ Z +∞
x 2 1 2
= − √ e−x /2 + √ e−x /2 dx
2π −∞ −∞ 2π
= 0 + 1.

Loi de Cauchy L’angle θ est une variable aléatoire uniforme sur [−π/2, π/2],
de densité g(θ) = π1 1[−π/2,π/2] (θ). L’abscisse X est donnée par X = tan θ, c’est
donc une variable aléatoire, de fonction de répartition

F (x) = P(X ≤ x)
= P(θ ≤ arctan x)
Z arctan x
1
= 1[−π/2,π/2] (θ)dθ
−∞ π
1 1
= arctan x + .
π 2

F est de classe C 1 de dérivée


1
f (x) = ,x ∈ R
π(1 + x2 )

C’est la densité de la loi de Cauchy. Une variable aléatoire X de loi de Cauchy


x 1
n’admet pas d’espérance. En effet, π(1+x 2 ) ∼x→∞ x n’est pas intégrable.

29
Calcul de l’aire d’un triangle Si la fonction 1D est intégrable, alors le
théorème de Fubini est applicable (p. ??). On a donc
Z Z 
a(T ) = 1T (x, y) dx dy.
R R

Or, si 0 ≤ y ≤ 1,
1 si 0 ≤ x ≤ 1 − y,
1T (x, y) =
0 sinon.
et dans le cas contraire, 1T (x, y) = 0. On a donc
1 1−y Z 1 1
y2
Z Z  
1
a(T ) = dx dy = (1 − y) dy = y − = .
0 0 0 2 0 2

Contre-exemple Pour tout y ∈ ]0, 1] (et donc presque tout y ∈ [0, 1]), on a
1 1
x2 − y 2
Z 
x 1
2 2 2
dx = x 7→ − 2 2
=− ,
0 (x + y ) x +y 0 1 + y2

par conséquent
Z 1 Z 1 Z 1
x2 − y 2

dy π
2 2 2
dx dy = − 2
= −[y 7→ arctan y]10 = − .
0 0 (x + y ) 0 1+y 4

En exploitant la relation

x2 − y 2
 
∂ y
=
(x2 + y 2 )2 ∂y x2 + y 2

on établit de façon similaire que


Z 1 Z 1
x2 − y 2

π
dy dx = .
0 0 (x2 + y 2 )2 4

Or, si le théorème de Fubini (p. 11) était applicable, on pourrait intervertir


l’ordre d’intégration des variables sans changer le résultat. Comme cela n’est pas
le cas, on en déduit que l’hypothèse exigée par le théorème de Fubini ne tient
pas : la fonction
x2 − y 2
(x, y) ∈ [0, 1] × [0, 1] 7→ 2
(x + y 2 )2
n’est pas intégrable.

30
Homothétie Si l’on pose D1 = Rn , D2 = Rn , l’application h : D1 → D2
définie par h(x) = αx est un C 1 -difféomorphisme. De plus, on a
 
α 0 ··· 0
 0 α ... 0 
n n
| det Jh (x)| = det  . . ..  = |α | = α .
 
..
 .. .. . . 
0 0 ... α

Par conséquent, le théorème de changement de variables (p. 12) fournit


Z Z
f (y) dy = f (αx)αn dx,
Rn Rn

soit Z Z
1
f (αx) dx = n f (y) dy.
Rn α Rn

Volume et translation L’ensemble A mesurable et de volume fini a une


fonction caractéristique 1A intégrable et
Z
λ(A) = 1A (x) dx.

Soit h(x) = x − u ou u ∈ R3 . La fonction h est une bijection de R3 sur lui-même,


continûment différentiable ainsi que son inverse, h−1 (x) = x + u et Jh (x) = I,
donc det Jh (x) = 1. Par le théorème de changement de variables (p. 12), la
fonction 1h−1 (A) = 1A ◦ h est donc intégrable sur R3 et
Z Z Z
1h−1 (A) dx = (1A ◦ h)| det Jh (x)| dx = 1A (x) dx = λ(A).
R3 R3

L’ensemble translaté A + u = h−1 (A) est donc mesurable, de volume fini égal au
volume de A.

Coordonnées polaires Les ensembles P et C sont ouverts et la fonction h –


qui permet de passer des coordonnées polaires aux coordonnées cartésiennes –
est une bijection de P dans C. Elle est continûment différentiable ; sa matrice
jacobienne en (r, θ) vaut
 
cos θ −r sin θ
Jh (r, θ) = ,
sin θ r cos θ

et son déterminant satisfait

det Jh (r, θ) = (cos θ)(r cos θ) − (sin θ)(−r sin θ) = r > 0.

Le jacobien est donc inversible et h−1 est continûment différentiable par le


théorème d’inversion locale. On peut donc appliquer le théorème de changement

31
de variables (p. 12) à la fonction f , ce qui fournit
Z Z
f (x, y) d(x, y) = f (h(r, θ))| det Jh (r, θ)|d(r, θ)
C
ZP
= g(r, θ)r d(r, θ).
P

Absence du déterminant jacobien La façon la plus rapide de procéder


consiste à considérer que f ◦ h joue le rôle de f dans le théorème de changement
de variables (p. 12), que h dans notre énoncé désigne h−1 dans ce théorème
et que les rôles de D1 et D2 sont intervertis. Une fois que l’on a permuté ces
notations, on réalise que l’intégrale que l’on souhaite calculer est le membre de
gauche de l’équation du théorème de changement de variables, dont toutes les
hypothèses sont par ailleurs satisfaites. Par conséquent on a
Z Z
f (h(x)) dx = (f ◦ h)(h−1 (y))| det Jh−1 (y)| dy.
D1 D2

On peut simplifier (f ◦ h)(h−1 (y)) en f (y) et éventuellement exprimer le jacobien


de h−1 en fonction du jacobien de h : Jh−1 (y) = [Jh (h−1 (y))]−1 ; on obtient donc
Z Z Z
1
f (h(x)) dx = f (y)| det Jh−1 (y)| dy = f (y) −1 (y))|
dy.
D1 D2 D2 | det Jh (h

Lancer de fléchette Les coordonnées cartésiennes de M ∈ D = {(x, y) ∈


R2 , x2 + y 2 ≤ 1} constituent un couple de variables aléatoires de densité
1
f(X,Y ) (x, y) = 1D (x, y)
π
uniforme sur le disque, par hypothèse. L’abscisse de X est distribuée selon la
densité marginale
Z
2
fX (x) = f(X,Y ) (x, y)dy = (1 − x2 )1/2 1[−1,1] (x).
π
La loi de Y a la même densité.

Lancer de fléchette (suite) La densité des coordonnées cartésiennes ne


s’exprime pas comme le produit des densités marginales ; elles ne sont pas
indépendantes.

Démonstration Soit X et Y deux v.a. aléatoires indépendantes et de carré


intégrable. On a d’après la proposition (p. 18)

E((X − E(X))(Y − E(Y ))) = E(X − E(X))E(Y − E(Y )) = 0 = ρ(X, Y )

32
Lancer de fléchette (fin) En coordonnées polaires, le domaine D est décrit
par D = {(r, θ) ∈ [0, 1] × [0, 2π]}. La densité de (R, θ) s’écrit ainsi :
r 1
f(R,θ) (r, θ) = 1D (r cos(θ), r sin(θ)) = 2r1[0,1] (r) 1[0,2π] (r).
π 2π
1
Ainsi R et Θ sont indépendantes de densités respectives 2r1[0,1] (r) et 2π 1[0,2π] (θ).

Loi bêta On note d’abord que la dimension de Y est plus petite que celle de X.
On va donc compléter Y en prenant
 par exemple
 Y ′ = (Y, Z), avec Z = U + V ,
u
ce qui correspond à g(u, v) = u+v , u + v . Cette application est bijective de
2
A = ]0, +∞[ dans B = ]0, 1[ × ]0, +∞[, d’inverse g −1 (y, z) = (yz, z(1 − y)), qui
a pour jacobien z.
θ α+β α−1 β−1 −θ(u+v)
Comme fX (u, v) = Γ(α)Γ(β) u v e 1A (u, v), on a

θα+β
fY ′ (y, z) = z α+β−1 y α−1 (1 − y)β−1 e−θz 1B (y, z).
Γ(α)Γ(β)

On obtient alors la densité de Y en intégrant fY ′ (y, z) par rapport à z ∈ ]0, +∞[ :


Z +∞
fY (y) = fY ′ (y, z)dz
0
Z +∞
θα+β
= y α−1
(1 − y) β−1
1]0,1[ (y) z α+β−1 e−θ(z) dz
Γ(α)Γ(β) 0
Γ(α + β) α−1
= y (1 − y)β−1 1]0,1[ (y),
Γ(α)Γ(β)

où on a utilisé la définition de la fonction gamma et le changement de variable


linéaire z 7→ θz. On appelle loi bêta de paramètres α et β la loi admettant cette
densité. Admettant une grande variété de formes, elle permet de modéliser de
nombreuses distributions à support fini.
La loi bêta apparaît naturellement dans une expérience d’urnes, donnée par
George Pólya dans un article de 1930, Sur quelques points de la théorie des
probabilités. Il décrit l’expérience suivante : on se donne une urne contenant
initialement r boules rouges et b boules bleues, on tire une boule dans l’urne,
puis on la remet dans l’urne avec une deuxième boule de même couleur. Alors la
proportion de boules rouges tend vers une variable aléatoire de loi Beta(r, b), et,
inversement, la proportion de boules bleues tend vers une variable aléatoire de
loi Beta(b, r).
Nous obtenons aussi facilement la densité de Z. En effet, on a fY ′ (y, z) =
fY (y)fZ (z) (Y et Z sont donc indépendantes), où

θα+β
fZ (z) = z α+β−1 e−θz 1]0,+∞[
Γ(α + β)

33
On a ainsi démontré que si U et V sont deux variables aléatoires indépendantes
de lois respectives Γ(α, θ) et Γ(β, θ), alors U + V suit la loi Γ(α + β, θ) et est
U
indépendante de U +V qui suit une loi bêta de paramètres (α, β).

Durée de vie
2
Question 1 En dérivant, on obtient que la densité de T est f (t) = te−t /2
1t>0 .
L’espérance vaut :

Z +∞
2
E(T ) = t2 e−t /2
dt
0
h 2
i+∞ Z +∞ 2
= −te−t /2 + e−t /2 dt par intégration par parties
0 0
1 +∞ −t2 /2
Z
= e dt
2 −∞


=
2

Question 2 La probabilité s’écrit :

P(T ≥ 3, T ≥ 1) P(T ≥ 3) e−9/2


P(T ≥ 3|T ≥ 1) = = = −1/2 = e−4
P(T ≥ 1) P(T ≥ 1) e

Question 3 Les variables aléatoires X1 , . . . , X10 sont indépendantes et suivent


une loi de Bernoulli de paramètre :

P(T ≤ 1) = F (1) = 1 − e−1/2

On en déduit que la loi de N est la loi binomiale de paramètre (10, 1 − e−1/2 ).

Question 4 La probabilité que l’équipement en série soit défaillant avant 1 an


vaut :
P (N ≥ 1) = 1 − P(N = 0) = 1 − e−1/2 ≈ 9.9 10−1 = 99%

Question 5 La probabilité que l’équipement en parallèle soit défaillant avant


1 an vaut :
P(N = 10) = (1 − e−1/2 )1 0 ≈ 8.9 10−5

34
Crues centennales de la Seine
Question 1 Soit x ∈ R

FY (x) = F (Y ≤ x) = F (X1 ≤ x, . . . , Xn ≤ x)
Yn
= F (Xi ≤ x)
i=1
= F (x)n

puisque les Xi sont indépendantes et de même loi

Question 2 Soit x ∈ R
d
fY (x) = FY (x)
dx
d
= F (x)n
dx
= nf (x)F (x)n−1

Question 3 On a alors f (x) = 1[0,1] (x) et F (x) = x1[0,1] (x) + 1[1,+∞] . On en


déduit
fY (x) = nxn−1 1[0,1]

1
Question 4 On cherche à déterminer x tel que P(Y > x) ≤ 1000 . Or,

P(Y > x) = 1 − P(Y ≤ x) = 1 − FY (x) = 1 − F (x)n = 1 − xn

Ainsi
1 1 1/n
1 − xn ≤ ⇔ (1 − ) ≤x
1000 1000
1
Question 5 On rappelle que la médiane est le réel m tel que 2 = P(Y ≤ m) =
FY (m).
On cherche donc m tel que mn = 12 , soit m = 1
21/n
.
On voit que cette valeur est plus élevée que la médiane des Xi qui vaut 12 . Elle
tend même vers 1 lorsque n tend vers l’infini.

Indépendance et vecteurs gaussiens


Question 1 D’après le cours, en interprétant les éléments de R2 comme des
vecteurs colonnes, pour tout z = (x, y) ∈ R2 on a
 
1 1 t −1
fZ (z) = p exp − (z − m) C (z − m) .
2π det(C) 2

35
Or par construction C peut s’écrire
 2 
σX c
C= ,
c σY2
2
où σX := V (X), σY2 := V (Y ) et c = Cov (X, Y ). Comme C est définie positive
2
elle est inversible, avec det(C) = σX σY2 − c2 > 0 et
 2 
−1 1 σY −c
C = 2 2 2 .
σX σY − c 2 −c σX

En outre, m = (mX , mY ) avec mX := E(X) et mY := E(Y ). On en déduit que



1 −1
fZ (x, y) = exp ×
2 (σX σY2 − c2 )
2
p
2
2π σX σY − c 2 2

σY2 (x − mX )2 − 2c (x − mX ) (y − mY ) + σX2
(y − mY )2



1 −1
= exp ×
2 (1 − ρ2 )
p
2π σX σY 1 − ρ2
(x − mX )2 (x − mX ) (y − mY ) (y − mY )2
 
2 − 2ρ + .
σX σX σY σY2

Question 2 Ici, pour x, y ∈ R2 , on remarque que :



1 −1
fZ (x, y) = exp ×
2 (1 − ρ2 )
p
2π σX σY 1 − ρ2
2 !
2

y − mY x − mX 2 (x − mX )
−ρ + (1 − ρ ) 2
σY σX σX
(x − mX )2
 
1
=√ exp − 2 ×
2π σX 2 σX
(  2 )
1 1 y − mY x − mX
√ exp − −ρ .
2 (1 − ρ2 )
p
2π σY 1 − ρ2 σY σX

y − mY
Ainsi, avec le changement de variable u = on obtient
σY
Z +∞
fX (x) = fZ (x, y) dy
−∞
(x − mX )2
 
1
=√ exp − 2 ×
2π σX 2 σX
Z +∞ (  2 )
1 1 x − mX
√ p exp − u−ρ du,
−∞ 2π 1 − ρ2 2 (1 − ρ2 ) σX

36
et on reconnaît dans cette dernière intégrale la densité d’une loi Normale d’espé-
x − mX
rance ρ et de variance 1 − ρ2 . Cette intégrale vaut donc 1 et on conclut
σX
que
(x − mX )2
 
1
fX (x) = √ exp − 2 ,
2π σX 2 σX
qui correspond à la densité d’une loi Normale d’espérance mX et de variance
2
σX .
En procédant de manière symétrique, on obtient de même que Y suit une loi
Normale d’espérance mY et de variance σY2 .

Question 3 Le premier sens est évident : si X et Y sont indépendantes, alors


nous avons vu dans le cours que Cov (X, Y ) = 0, et ce que l’on soit gaussien ou
non.
Supposons maintenant que Cov (X, Y ) = 0, et montrons l’indépendance entre X
et Y . En reprenant la formule de la question 1 et en remplaçant ρ par 0, pour
tout (x, y) ∈ R2 on a:
1 (x − µX )2 (y − µY )2
  
1
fZ (x, y) = exp − 2 +
2 π σX σY 2 σX σY2
2
(y − mY )2
   
1 (x − mX ) 1
=√ exp − 2 ×√ exp −
2π σX 2 σX 2π σY 2 σY2
= fX (x) × fY (y)
d’après la question 2. On en conclut que X et Y sont bien indépendantes.

Symétrie de la gaussienne
Question 1 Nous avons admis dans le cours que la fonction de répartition Fc
de Xc caractérisait sa loi. Nous allons donc l’expliciter. Soit x ∈ R. Par définition
de la fonction de répartition d’une variable aléatoire et d’après la formule des
probabilités totales, on a
Fc (x) = P (Xc ≤ x) = P (Xc ≤ x, |X| > c) + P (Xc ≤ x, |X| ≤ c)
= P (X ≤ x, |X| > c) + P (−X ≤ x, |X| ≤ c)
= P (X ≤ x, X > c) + P (X ≤ x, X < −c) + P (X ≥ −x, −c ≤ X ≤ c) .
Or
P (c < X ≤ x) = F (x) − F (c) si x > c,
P (X ≤ x, X > c) =
0 si x ≤ c,
P (X ≤ x, X < −c) = P (X ≤ min{−c, x}) = F (min{−c, x}) ,
P (−c ≤ X ≤ c) = F (c) − F (−c) si x > c,
P (X ≥ −x, −c ≤ X ≤ c) = P (−x ≤ X ≤ c) = F (c) − F (−x) si − c ≤ x ≤ c,
0 si x < −c.
Ainsi,

37
— si x > c alors min{−c, x} = −c et
Fc (x) = F (x) − F (c) + F (min{−c, x}) + F (c) − F (−c) = F (x),
— si −c ≤ x ≤ c alors min{−c, x} = −c et
Fc (x) = F (min{−c, x})+F (c)−F (−x) = 1−F (c)+F (c)−1+F (x) = F (x)
car la densité de la loi Normale centrée réduite est paire, ce qui implique
que F (−x) = 1 − F (x) pour tout x ∈ R,
— si x < −c alors min{−c, x} = x et
Fc (x) = F (min{−c, x}) = F (x).
On en conclut que Fc = F : Xc a la même loi que X. Ce résultat est dû à la
symétrie de la densité de la loi Normale centrée réduite. On remarque d’ailleurs
que le résultat resterait inchangé si l’on prenait n’importe quelle autre loi de
densité paire !

Question 2 Tout d’abord, par définition,


Cov (X, Xc ) = E ((X − E (X)) (Xc − E (Xc ))) = E (X Xc )
puisque X et Xc sont gaussiennes centrées (d’espérance nulle) réduites. Or on
remarque que l’on peut écrire Xc = X 1R\[−c,c] (X) − X 1[−c,c] (X). On déduit
par linéarité de l’espérance que
E (X Xc ) = E X 2 1R\[−c,c] (X) − X 2 1[−c,c] (X)


= E X 2 1R\[−c,c] (X) + 1[−c,c] (X) − 1[−c,c] (X) − X 2 1[−c,c] (X)


 

= E X 2 − 2 E X 2 1[−c,c] (X) .
 

Etant donné que X est de loi Normale centrée réduite, on a directement que
E X 2 = 1; il suffit donc de calculer la dernière espérance pour obtenir le
résultat. Comme x 7→ x2 1[−c,c] (x) est bornée et continue sur R\{−c, c} (donc
continue presque partout), elle est intégrable et
Z +∞ Z c
2 2
x2 f (x) dx.

E X 1[−c,c] (X) = x 1[−c,c] f (x) dx =
−∞ −c

Or on pourra remarquer que f ′ (x) = −x f (x) puis que f ′′ (x) = (x2 − 1) f (x).
Puisque f , f ′ et f ′′ sont continues et bornées (voir l’exercice Densité et fonction
de répartition d’une loi Normale du chapitre Probabilités I) elles sont intégrables
sur des segments. On en déduit que
Z c Z c
E X 2 1[−c,c] (X) = (x2 − 1) f (x) dx +

f (x) dx
−c −c
c
= [−x f (x)]−c + F (c) − F (−c)
= −c (f (c) + f (−c)) + F (c) − F (−c)
= 2 (F (c) − c f (c)) − 1

38
par parité de f . On en conclut que Cov (X, Xc ) = 3 + 4 (c f (c) − F (c)).
La fonction g : c ∈ R∗+ 7→ 3 + 4 (c f (c) − F (c)) est continue, infiniment dérivable
et pour tout c > 0 on a g ′ (c) = −4 c2 f (c) < 0. Par conséquent, g est strictement
décroissante, avec lim+ g(c) = 1 et lim g(c) = −1. Le théorème des valeurs
c→0 c→+∞
intermédiaires nous permet de conclure qu’il existe bien un unique c0 > 0 tel
que g(c0 ) = 0.

Question 3 Les variables aléatoires X et Xc0 sont indépendantes ssi pour tous
ensembles A, B ∈ ER on a

P (X ∈ A, Xc0 ∈ B) = P (X ∈ A) P (Xc0 ∈ B) .

Or si l’on prend A = B =] − ∞, x] où x < −c0 , alors

P (X ≤ x, Xc0 ≤ x) = P (X ≤ x, X < −c0 ) + P (X ≤ x, X > c0 )


+ P (X ≤ x, X ≥ −x, −c0 ≤ X ≤ c0 )
= P (X ≤ x) + 0 + 0 = F (x)
̸= F (x) F (x) = P (X ≤ x) P (Xc0 ≤ x) .

On en conclut que bien que Cov (X, Xc0 ) = 0, X et Xc0 ne sont pas indépen-
dantes.

Question 4 Supposons que (X, Xc0 ) soit un vecteur gaussien. Alors, puisque
Cov (X, Xc0 ) = 0, X et Xc0 sont nécessairement indépendantes. Or nous venons
de voir que ce n’était pas le cas; nous avons donc contradiction. On en conclut
que (X, Xc0 ) n’est pas gaussien.

Loi du χ2
A 1 degré de liberté
1. Soit h : R → R une fonction mesurable telle que h × f est intégrable.
Alors en opérant le changement de variable u = x2 on a
Z
E (h(Y )) = E h(X 2 ) = h(x2 ) f (x) dx

R
Z 0 Z +∞
2
= h(x ) f (x) dx + h(x2 ) f (x) dx
−∞ 0
Z +∞ +∞
√  √ 
Z
1 1
= h(u) f − u √ du + h(u) f u √ du.
0 2 u 0 2 u
√ √
Or f est paire, donc pour tout u ∈ R+ on a f (− u) = f ( u) et
√  1
Z
E (h(Y )) = h(u) f u √ du.
R+ u

39
Par propriété Y possède donc une densité fY valant pour tout x ∈ R
1
√ 1 x− 2 n xo
f ( x) √ = 1 exp − si x > 0,
fY (x) = 2 2 Γ 21

x 2
0 si x ≤ 0.
Remarque. La fonction fY est bien une densité : elle est continue par morceaux
donc mesurable, puis positive, et son intégrale sur R vaut bien 1 :
Z Z +∞   1 −1
1 x 2 n xo
fY (x) dx = 1
 exp − dx
R 2Γ 2 0 2 2
Γ 12
Z +∞ 
1 1
−1 −u
= u 2 e du =  = 1.
Γ 12 Γ 21

0

A n degrés de liberté
2. On note (Pn ) la propriété à démonter au rang n.
Initialisation. Nous avons vu à la question précédente que (P1 ) est vraie.
Hérédité. Soit maintenant n ≥ 2 et supposons (Pn−1 ) vraie. Alors Y =
Pn−1
i=1 Yi + Yn est la somme de deux variables aléatoires indépendantes, dont
la première suit un χ2n−1 de densité notée fn−1 et la seconde un χ21 de densité
notée f1 . Elle possède donc une densité, égale au produit de convolution de fn−1
et f1 : pour tout x ∈ R
Z
fY (x) = f1 (x − u) fn−1 (u) du.
R

Or pour tout x, u ∈ R on a f1 (x − u) = 0 ssi x ≤ u et fn−1 (u) = 0 ssi u ≤ 0.


Donc leur produit est strictement positif ssi x > u > 0, nul sinon. La densité fY
est par conséquent nulle sur R− et nous allons maintenant exhiber son expression
sur R∗+ . Soit x > 0, alors

x 1 n−1
(x − u)− 2 u 2 −1
 
x−u
Z n uo
fY (x) = √ exp − n−1 exp − du
2 Γ 12

2 2 2 Γ n−1 2

0 2
n xo
exp − Z x
2 −1 n−3
= n 1
 n−1
 (x − u) 2 u 2 du.
2 Γ 2 Γ 2
2
0

u
Avec le changement de variable v = on obtient
x
n
n xo
x 2 −1 exp − Z 1
2  n−3 −1
fY (x) = n 1
 n−1 v 2 (1 − v) 2 dv.
22 Γ 2 Γ 2 0

40
Or fY est une densité, son intégrale vaut donc 1 :

Z +∞ x n2 −1 exp − x Z 1
n o
Z 
1
fY (x) dx = 2 n−3
v 2 (1 − v)
− 2
dv dx
n
2 2 Γ 12 Γ n−1
 
R 0 2 0
 Z +∞ x n2 −1 exp − x
 n o 
Z 1
n−3 1
=

v 2 (1 − v) 2 dv  2  dx
n
2 2 Γ 12 Γ n−1

0 0 2
Z 1  Z +∞ n −1 !
n−3 − 1 x 2 exp {−x}
v 2 (1 − v) 2 dv  dx
Γ 12 Γ n−1

0 0 2
!
Γ n2
Z 1  
n−3 − 21
= v 2 (1 − v) dv  = 1.
Γ 21 Γ n−1

0 2

On en déduit que
1 1 n−1
 
Γ Γ
Z
n−3 − 21 2
v 2 (1 − v) dv = n
2 ,
0 Γ 2

et finalement que pour tout x ∈ R


n
x 2 −1 n xo
n n
 exp − si x > 0,
fY (x) = 22 Γ 2 2
0 sinon;

(Pn ) est donc vraie.


Conclusion. La propriété est vraie pour tout n ∈ N∗ .

Combinaisons linéaires de variables Gaussiennes indépen-


dantes
Préliminaires Cette question a été traitée de manière générale dans le cours.
Nous en proposons une preuve alternative, basée sur le calcul de la fonction de
répartition de la variable aléatoire s X + m, qui caractérise sa loi. Elle dépend
clairement des valeurs de s.
— Si s = 0, alors s X + m est toujours égale à m : sa loi est une masse de
Dirac en {m} et pour tout x ∈ R on a P (s X + m ≤ x) = 1[m,+∞[ (x).
— Si s ̸= 0, alors pour tout x ∈ R on a
  Z x−m
x−m s
P X≤ = f (u) du si s > 0,
s −∞
P (s X + m ≤ x) =   Z +∞
x−m
P X≥ = f (u) du si s < 0,
s x−m
s

41
qui en posant le changement de variable v = s x + m donne
Z x  
1 u−m
P (s X + m ≤ x) = f dx.
−∞ |s| s

Ainsi, s X + m admet une densité, qui pour tout x ∈ R est égale à

(x − m)2
   
1 u−m 1
f =√ exp − .
|s| s 2 π |s| 2 s2

On reconnaît la densité d’une loi Normale d’espérance m et de variance


s2 .

Combinaisons linéaires
2. Commençons par supposer que pour tout n ∈ N∗ , a ∈ Rn est tel qu’aucune
de ses composantes n’est nulle. Nous allons montrer par récurrence
Pn sur
n que Sna suit une loi Normale d’espérance nulle et de variance i=1 a2i .
On note cette propriété (Pn ).
Initialisation.
— Si n = 1 et a1 ̸= 0, alors S1a = a1 X1 suit une loi Normale centrée de
variance a21 d’après la question 1; (P1 ) est donc vraie.
— Si n = 2 et a1 , a2 ̸= 0, alors d’après le cours S2a = a1 X1 + a2 X2 admet
une densité, notée fna , égale au produit de convolution des densités f1 de
a1 X1 et f2 de a2 X 2 . En outre, d’après la   1, pour tout x ∈ R
question
1 x 1 x
on a f1 (x) = f et f2 (x) = f . Par conséquent, pour
|a1 | a1 |a2 | a2
tout x ∈ R,
   
x−u
Z Z
1 u
f2a (x) = f1 (x − u) f2 (u) du = f f du
R R |a1 | |a2 | a1 a2
 
x−u
!Z p
2 2 f  
1 x a1 + a2 a1 u
=p 2 f p !f du.
a1 + a22 a21 + a22 R |a 1 | |a2 | x a2
f p 2
a1 + a22

42
Or pour tout x, u ∈ R on a

(x − u)2
   
x−u
f exp −
2 a21 u2
   
a1 u 1
!f =√ exp −
x2 2 a22
 
x a2 2π
f p 2 exp −
a1 + a22 2 (a21 + a22 )

1 (x − u)2 u2 x2
  
1
=√ exp − + −
2π 2 a21 a22 a21 + a22
2
(  )
1 a2 x − (a2 + a2 ) u
=√ exp − 2 2 2 1 2 2 2
2π 2 a1 a2 (a1 + a2 )
  2 
a22 x
u− 2

 

 
1  a1 + a22 
=√ exp − ,
2π  a21 a22 

 2 

a21 + a22
 
p
a21 + a22
qui multiplié par correspond à la densité d’une loi Normale
|a1 | |a2 |
a2 x a2 a2
d’espérance 2 2 2 et de variance 2 1 2 2 . La précédente intégrale vaut
a1 + a2 a1 + a2
donc 1 et (P2 ) est vraie.
Héritage. Soit maintenant n ≥ 2, et supposons (Pn−1 ) vraie. Alors Sna =
a−n a−n
Sn−1 + an Xn , où a−n := (a1 , . . . , an−1 ). Or Sn−1 et an Xn sont des variables
Pn−1
gaussiennes centrées, de variances respectives i=1 a2i d’après (Pn−1 ) et a2n
d’après
Pn la question 1. Par (P2 ), Sna suit donc une loi Normale centrée de variance
2
i=1 ai .

Conclusion. On en conclut que (Pn ) est vraie pour tout n ∈ N∗ .

3. Calculons cette covariance :


 
n
X n
X
Cov Sna , Snb = Cov 

ai Xi , bj Xj 
i=1 j=1
n
X X
= ai bi V (Xi ) + ai bj Cov (Xi , Xj ) .
i=1 1≤i̸=j≤n

Or par hypothèse V (Xi ) = 1 pour tout i ∈ {1, . . . , n} et par indépendance


on a Cov (Xi , Xj ) = 0 pour tous i, j ∈ {1, . . . , n} tels que i ̸= j. Ainsi,
n
 X
Cov Sna , Snb = ai bi
i=1

qui est nulle ssi a et b sont orthogonaux.

43
Loi de Maxwell
Question 1 La densité du triplet (X, Y, Z) étant invariante par rotation, elle
est de la forme f(X,Y,Z) (x, y, z) = ϕ(x2 + y 2 + z 2 ). De plus, les variables X, Y et
Z étant indépendantes, on a

f(X,Y,Z) (x, y, z) = fX (x)fY (y)fZ (z) pour tout (x, y, z) ∈ R3 .

Soit (x0 , y0 , z0 ) ∈ R3 ; comme ϕ(x20 + y02 + z02 ) > 0 on a f(X,Y,Z) (x0 , y0 , z0 ) > 0
et donc fX (x0 ) ̸= 0, fY (y0 ) ̸= 0 et fZ (z0 ) ̸= 0. Pour tout x ∈ R3 , comme

fX (x)fY (y0 )fZ (z0 ) = ϕ(x2 + y02 + z 2 ) = ϕ(y02 + x2 + z02 ) = fX (y0 )fY (x)fZ (z0 ),

on a l’égalité
fX (y0 )
fX (x) = fY (x).
fY (y0 )
Comme on a par ailleurs
Z +∞ Z +∞
fX (x) dx = fY (x) dx = 1,
−∞ −∞

il est nécessaire que le ratio fX (y0 )/fY (y0 ) soit égal à 1. On a donc fX = fY ; la
preuve que fY = fZ s’obtient de manière similaire.
Pour finir, puisque pour tout x ∈ R on a f (x)3 = f(X,Y,Z) (x, x, x) = ϕ(3x2 ) > 0,
la fonction f est bien positive en tout point.

Question 2 L’égalité

f (x)f (y)f (z) = ϕ(x2 + y 2 + z 2 ) pour tout (x, y, z) ∈ R3

implique f (x)f ′ (y)f (z) = 2yϕ′ (x2 +y 2 +z 2 ) et f ′ (x)f (y)f (z) = 2xϕ′ (x2 +y 2 +z 2 ).
On en déduit que

xf (x)f ′ (y)f (z) = f ′ (x)yf (y)f (z) pour tout (x, y, z) ∈ R3 .

Soit (x, y0 , z0 ) ∈ R3 avec y0 ̸= 0 ; on a f (x) > 0, f (y0 ) > 0 et f (z0 ) > 0. En


posant
f ′ (y0 )f (z0 )
c= ,
y0 f (y0 )f (z0 )
on voit que
f ′ (x) = cxf (x) pour tout x ∈ R.
On peut réécrire cette équation différentielle sous la forme

(ln f (x))′ = cx.

En intégrant les deux membres de l’équation entre 0 et x, on obtient


x2
ln f (x) − ln f (0) = c
2

44
et donc 2
f (x) = f (0)ecx /2
,
cx2 /2
ce qui est bien la forme cherchée f (x) = ae .
R
Question 3 Comme R
f (x)dx = 1, on a nécessairement c < 0 et on en déduit
que
x2
 
1
f (x) = √ exp − 2 .
2πσ 2 2σ
Les variables aléatoires X, Y et Z suivent donc loi gaussienne centrée et la
covariance du vecteur est σ 2 I3 , où I3 est la matrice identité.

Question 4 On a
1 1
mE(∥V ∥2 ) = mE(V12 + V22 + V32 ).
2 2
Comme E(Vi2 ) = σ 2 , on en déduit que Ec = 32 mσ 2 et par conséquent que
kT
σ2 = .
m

Question 5 À l’aide de la méthode de la fonction muette, on montre que


V12 suit une loi gamma de paramètres (1/2, 2σ1 2 ). En effet, en appliquant le
changement de variable y = x2 sur R∗− et R∗+ , on obtient :
√ √ 1 √ 1
fV12 (y) = (f (− y) + f ( y)) √ 1]0,+∞[ (x) = f ( y) √ 1]0,+∞[ (x)
2 y y
par parité de f , soit
 1/2  y 
1 1
fV12 (y) = √ y −1/2 exp − 2
π 2σ 2 2σ
 1/2
1 1 −1/2
 y 
= y exp −
Γ(1/2) 2σ 2 2σ 2
On déduit de l’indication que ∥V ∥2 = V12 + V22 + V32 suit une loi gamma de
paramètres (3/2, 2σ1 2 ). Sa densité est
1 √ −x/2σ2
f∥V ∥2 (x) = √ xe 1]0,+∞[ (x).
2πσ 3

À l’aide de la √
méthode de la fonction muette, en appliquant le changement de
variable v = x sur R∗+ et avec σ 2 = kTm , on montre enfin que ∥V ∥ est une
variable de densité :
√ 
2 m 3/2 2 −mv2 /2kT
f∥V ∥ (v) = √ v e 1]0,+∞[ (v).
π kT
Il s’agit de la densité de la loi de Maxwell.

45

Vous aimerez peut-être aussi