Hani Soumia
Hani Soumia
DÉPARTEMENT DE MATHÉMATIQUES
MASTER en Mathématiques
Option : Statistique
Par
Hani Soumia
Titre :
Vecteurs Gaussiens
Membres du Comité d’Examen :
Dr. Berkane Hassiba UMKB Président
Septembre 2020
Dédicace
Je dédie ce humble travail.
La plus proch de mon coeur celle que a fait l’impossible pour me donner le bonheur mon
chère mère.
A mon père qui fait l’impossible pour me donner le bonheur et pour suivre mes études
jusqu’à ce jour.
Je dédie aussi ce travail à mes frères et tout ma famille:
A tous mes amies de promotion 2019/2020
de mathématiques.
A toute personne que prendra de son temps pour lire ce document à parfaire.
i
REMERCIEMENTS
Avant tout choses, je remercie à Dieu le tout puissant, pour m’avoir donnée la force et la
patience, la santé et la volonté pour réaliser ce modeste travail.
Mes premiers remerciement s’adressent à mon encadreur Mdm.Ouanoughi Yasmina qui
a bien voulu me proposer ce thème et m’aider au cours de sa réalisation.
Je tiens à remercier :Dr. Hacene Nacer pour ces vonseils, ses orientations, et la con…ance
qu’il m’accorde.
Je tien à remercie les membres du Jury qui m’ont fait l’honneur de participer
à ma soutenance.
Je remercie ma famille à qui je n’ai jamais su dire tout l’a¤ection que j’ai pour aux, mon
père, ma mère, mes frères et ma soeur qui ont été et seront toujours présents à mes côtés,
merci pour votre soutient et vos encouragements.
Un grand merci particulier à mes collègues et mes amies pour les sympathiques moments
qu’on a passés ensemble, on les remerci pour leur con…ance, et leur soutien moral au
cours de ces années.
Que tout ceux, que je n’ai pas nommés.
Merci
ii
Table des matières
Dédicace i
Remerciements ii
Introduction 1
1 Variables aléatoires 2
1.1 Modèle de Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Espace de Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Variables discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Moments d’une Variable aléatoire discète . . . . . . . . . . . . . . . . 4
1.2.3 Lois discrètes classiques . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.4 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.5 Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.6 Couple de v.a discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.7 Relation entre deux v.a . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Variable continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.2 Fonction de densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
iii
Table des matières
2 Vecteurs Gaussiens 27
2.1 Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Loi d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.2 Moments d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . 28
2.1.3 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2 Vecteurs Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.1 Exemple fondamental . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.2 Caractéristique des vecteus gaussiens . . . . . . . . . . . . . . . . . . 35
2.2.3 Quelques propriétés des vecteurs gaussiens . . . . . . . . . . . . . . . 38
2.2.4 Le théorème central limite vectoriel . . . . . . . . . . . . . . . . . . . 41
2.2.5 Espérance conditionnelle et projection orthogonale . . . . . . . . . . 42
2.2.6 Lois conditionnelles et prédiction . . . . . . . . . . . . . . . . . . . . 43
Bibliographie 45
iv
Liste des tableaux
v
Introduction
La popularité des modèles gaussiens tient à ce qu’ils se prêtent bien au calcul et les pro-
blèmes relatifs à de tels modèles reçoivent souvent une solution analytique complète sous
une forme agréable. Cet avantage réside principalement dans les deux propriétés de stabi-
lité suivantes : d’une part les transformations a¢ nes des vecteurs gaussiens produisent des
vecteurs gaussiens, d’autre part lorsque deux vecteurs sont gaussiens dans leur ensemble, le
conditionnement de l’un par l’autre conduit à un vecteur gaussien qui est une combinaison
a¢ ne du vecteur conditionnant Cependant, le seul fait que le calcul gaussien soit agréable ne
su¢ rait pas à justi…er l’usage des modèles gaussiens.
Il y a une raison profonde qui fait que la distribution gaussienne apparait naturellement dans
les phénomènes aléatoires dont la base physique est de nature microscopique et qu’on observe
à l’échelle macroscopique. Les petite contributions supposées indépendantes (mais cette hy-
pothèse n’est pas absolument nécessaire) de chaque électron, s’ajoute pour former un courant
gaussien, et cela quelle que soit la distribution statistique des contributions individuelles.
Les variables gaussiennes sont des lois universelles qui sont d’une importance particulière.
Il sera très utile en particulier en statistique de pouvoir passer du cas de la dimension 1
à des dimensions plus grandes. Ce passage nécessite de développer un formalisme qui sera
l’objet du chapitre (1). Dans le chapitre 2, nous calculerons la fonction caractéristique des
vecteurs gaussiens que nous aurons préalablement dé…nis. Nous montrerons aussi comment
nous pouvons alors aborder de manière très e¢ cace et très simple les problèmes d’indépen-
dance de variables gaussiennes. Nous énoncerons ensuite le théorème central limite vectoriel.
Nous terminerons par la propriété suivante : le conditionnement de deux vecteurs gaussien
conduit à un vecteur gaussien qui est une combinaison a¢ ne du vecteur conditionnant.
1
Chapitre 1
Variables aléatoires
Dé…nition 1.1 (Tribu) On dit que T est une tribu de l’univers si, et seulement si,
1. 2 T:
2. Pour tout A 2 T , A 2 T:
i P ( ) = 1:
X
+1
P ([+1
n=0 An ) = P (An ): (1.1)
n=0
Le triplet( ; T; P ) est appelé espace probabilisé si est …ni ou in…ni dénombrable (comme,
par exemple, = N), on prend T = P ( ), l’ensemble des parties de .
2
Chapitre 1. Varaible aléatoire
Propriètès élémentaires :
1. P (A) = 1 P (A):
2. P (A) = P (A \ B) + P (A \ B):
3. A B ) P (A) P (B):
X X
P (A) = P (f!g); P (f!g) = 1: (1.2)
!2A !2
Dé…nition 1.3 (Variables discrètes) Si X est une variable que ses valeurs dant un en-
semble …ni ou dénombrable I. On dit qu’elle est discrètes pour ce type de variable on dé…nit
la fonction poids en chaque point :
Propriétés :
0 0
– FX fonction croissante au sens large. i; e si x x ) FX (x) FX x :
– limx! 1 FX (x) = 0:
– limx!+1 FX (x) = 1:
– FX est continue à droite en tout point de R.
– FX n’est pas nécessairement continue à gauche.[11]
3
Chapitre 1. Varaible aléatoire
4. X = a p.s ) E(X) = a:
A :lineairité :
(2)E( X) = E(X) 8 2 R:
B :Monotonie :
(1)X 0 ) E(X) 0:
E(XY ) = E(X)E(Y ):
[8]
4
Chapitre 1. Varaible aléatoire
X
E(g(X)) = g(k)P (X = k): (1.6)
k
Dé…nition 1.6 (Variance) Nous dirons qu’une v:a X de carré integrable si E(X 2 ) < +1.
L’ensemble des v:a.de carré intégrable est noté L2 .
Supposons que E(X 2 ) < 1, on appelle Variance de X le nombre positif
On a
= E X2 E (X)2 :
[7]
5
Chapitre 1. Varaible aléatoire
Propriétés de la variance :
– Soient a et b deux constantes et X v:a :
V (aX + b) = a2 :V (X):
En e¤et :
V (aX + b) = E((aX + b) E(aX + b))2 ;
= a2 E(X E(X))2
= a2 V (X):
= V ar(X) + V ar(Y ):
Donc pour les v:a indépendante, la variance d’une somme est égale à la somme des va-
riances.
6
Chapitre 1. Varaible aléatoire
Dé…nition 1.7 Nous dirons qu’une v.a de carré intégrable X est centrée réduite si
E(X) = 0 ; V ar(X) = 1:
Proposition 1.1 Soit Y v:a de carré intégrable. Alors, la v:a:X dé…nie par :
Y E(Y )
X= ;
Y
Loi de Bernoulli
Dé…nition 1.8 La variable aléatoire X suit la loi de Bernoulli de paramètre p (p 2 [0; 1]) si
elle ne prend que deux valeurs 0 et 1 avec :
8
>
< P (X = 1) = p:
(1.9)
>
: P (X = 0) = 1 p = q:
Notation 1 X B(p).
Dé…nition 1.9 La variable aléatoire X suit la loi uniforme sur l’ensemble de réels fx1 ; :::; xn g
si Px est l’équiprobabilité sur cet ensemble.
1
8k = 1; :::; n; P (X = xk ) = : (1.10)
n
7
Chapitre 1. Varaible aléatoire
Par exemple le nombre de points indiqué par un dé suit la loi uniforme sur f1; 2; 3; 4; 5; 6g.
Loi binomiale
La formule ci-dessus dé…nit bien une loi de probabilité puisque les Cnk pk (1 p)n k
sont positifs
et :
n k k
k=0 Cn p (1 p)n k
= (p + (1 p))n = 1n = 1:
Loi géométrique
Soit p 2 ]0; 1[ . On dit qu’une v:a X suit la loi géométrique de paramétre p, (note G(p))
lorsque X prend les valeurs n 2 N avec les probabilités
1 (1 p)
E(X) = et V (X) =
p p2
8
Chapitre 1. Varaible aléatoire
Loi de Poisson
Dé…nition 1.12 On dit que la variable alétoire discète X suit la loi de Poisson de paramétre
> 0 si l’ensemble des valeurs possibles est X( ) = N et
k
e
8k 2 N; P (X = k) = : (1.13)
k!
Notation 3 X P ( ):
E(X) = et V (X) =
X
itX
X (t) = E(e )= eitx p(x): (1.14)
x2R
Preuve. On a
= E(eitX )E(eitY )
= X (t) Y (t):
9
Chapitre 1. Varaible aléatoire
[12]
X
GX (s) = E(sX ) = P (X = n)sn : (1.15)
n2N
C’est la somme d’une série entière dont le rayon de convergence est au moins 1, car
P
n Pn = 1:
Un couple de v:a: discrètes est constitué de deux v:a: discrètes X et Y dont l’ensmble des
valeurs possibles peut s’écrire respectivement sous la forme fxi gi2I et fyj gj2J , où I et J sont
des ensembles d’indices inclus dans N, pouvant d’ailleurs être N tout entier. On convient
de ne faire …gurer que des valeurs de probabilité strictemeent positive. Comme dans le cas
unidimensionnel, la loi d’un couple discrèt est dé…nie par l’ansemble des valeurs possibles,
10
Chapitre 1. Varaible aléatoire
[6]
Lois marginales
La loi d’un couple est associé au deux lois marginales qui sont les lois de chacun des éléments
du couple pris séparément, dé…nies par l’ensemble des valeurs possibles et les probabilités
associées obtenues par sommation, soit :
8
< PX (X = xi ) = P P(X;Y ) (X = xi ; Y = yj ) = P Pij = Pi :
>
j2J j2J
P P (1.17)
>
: PY (Y = yj ) = i2I P(X;Y ) (X = xi ; Y = yj ) = i2I Pij = Pj :
[6]
Lois conditionneles
Pij P (X = xi \ Y = yj )
P (X = xi =Y = yj ) = = : (1.18)
Pj P (Y = yj )
– Lois conditionneles de Y si X = xi :
Pij P (X = xi \ Y = yj )
P (Y = yj =X = xi ) = = : (1.19)
Pi P (X = xi )
11
Chapitre 1. Varaible aléatoire
P
P (Y = yj \ X = xi ) = j2J P (X = xi =Y = yj )P (Y = yj )
P
= i2I P (Y = yj =X = xi )P (X = xi ):
[6]
X
P (Z = zk ) = fP (X = xi ; Y = yj )=xi + yj = zk g: (1.20)
Dans la cas générale cette formule ne peus donc être dé…nie que par la donnée de la loi du
couple (X; Y ).
– Cas particulier : X et Y sont indépendantes.
On parle alors de convolution des lois X et Y , qui est dé…nie par :
P
P (Z = zk ) = i2I P (X = xi )P (Y = zk xi )
P
= j2J P (Y = yj )P (X = zk yj ):
12
Chapitre 1. Varaible aléatoire
X X
P (Z = k) = P (X = x)P (Y = y) = P (X = x)P (Y = k x)
x+y=k x2N
X
k
= P (X = x)P (Y = k x)
x=0
Xk x k x
= e e
x=0
x! (k x)!
X
k
k!
( + ) x k x
=e
x=0
x!(k x)!
( + )
e
= ( + )k :
k!
Théorème 1.5 Soit f une application de R2 dansR, telle que f (X; Y ) admette une espérance.
Alors
X
E(f (X; Y )) = f (xi ; yj )P ([X = xi ] \ [Y = yj ])
i;j
X
= f (xi ; yj )Pij :
i;j
Dé…nition 1.15 (Covariance) Soient X et Y deux v:a r d’ordre 2 .On appelle :covariance
de X et Y , le réel Cov(X; Y ) dé…nie par :
13
Chapitre 1. Varaible aléatoire
Cov(X; Y )
'X;Y = p p : (1.22)
V ar(X) V ar(Y )
0 1 0 1
B V ar(X) Cov(X; Y ) C B Cov(X; X) Cov(X; Y ) C
(X; Y ) = @ A=@ A: (1.23)
Cov(Y; X) V ar(Y ) Cov(Y; X) Cov(Y; Y )
Propriétés
Il existe des variable alétoire dont les valeurs possibles ne sont pas dans une ensemble …ni ou
dénombrable mais dans un ensemble dénombrable.
Soit X ce genre de v.on dit qu’elle est continue s’il existe une fonction positive f de…nie pour
R
tout réel x 2 Rtel que pour tout partie B de nombres réels P (X 2 B) = B f (x)dx
Z +1
P (X 2] + 1; 1[) = f (x)dx: (1.24)
1
14
Chapitre 1. Varaible aléatoire
8
> Rb
< si B = [a; b] P (a < X < b) = a f (x)dx:
> Ra
: si a=b P (X = a) = a f (x) = dx = 0:
La probabilité qu’une variable continue soit égale à une valeur …xée est nulle
Z a
P (X < a) = P (X a) = f (x)dx: (1.25)
1
D’une façon générale, désignons par X une v:a continue prenant ses valeurs sur l’ensemble
des nombres réel R. Soit x un nombre réel particulier, la probabilité que X prenne une valeur
inférieure ou égale à x est exprimée par :
F (x) = P (X x):
Dé…nition 1.16 (Fonction de densité) On dit que la loi PX d’une v:a:r X admet fX
comme densité s’il existe une telle fonction fX positive et telle tout x 2 R on a :
Z x
FX (x) = fX (t)dt: (1.26)
1
15
Chapitre 1. Varaible aléatoire
Une v:a:r qui admet une densité est dite absolument continue. Cette dé…nition est équi-
valente à l’existence d’une fonction fX positive et telle que :
Z
8A 2 T , PX (A) = P (X 2 A) = fX (t)dt:
A
Théorème 1.6 Une fonction f sur R est une densité de probabilité si et seulement si elle
véri…e les trois assertions suivantes :
i) f est positive.
Proposition 1.6 Si fX est continue sur une intevalle [a; b], alors FX est dérivable sur [a; b]
0
est on a fX = FX :
La probabilité que la v:a X prenne une valeur dans l’intervalle [a; b] est :
Z b
P (a X b) = F (b) F (a) = f (x)dx:
a
On en déduit que P (X = a) = 0.
Espérance mathématique
Z +1
E[X] = xf (x)dx: (1.27)
1
16
Chapitre 1. Varaible aléatoire
Si X est une variable continue de densité de probabilitéf (x) alor pour tout fonction
réelle g
Z +1
E[g(X)] = g(x)f (x)dx: (1.28)
1
Variance
Si X est une v.a de moyenne E[X], alors la variance de X est dé…nie par :
= E[X 2 ] E[X]2 :
Loi uniforme
Dé…nition 1.17 (Loi uniforme) La v:a.Continue X suit la loi uniforme sur l’intervalle
[a; b], ( 1 < a < b < +1) si elle a une densité f constante sur cet intervalle et nulle en
dehors .On a alors :
1
f (x) = I[a;b] (x):
b a
17
Chapitre 1. Varaible aléatoire
b+a (b a)2
E(X) = et V (X) =
2 12
Loi exponentielle
Dé…nition 1.18 (Loi exponentielle) Soit une réel strictement positive. La v:a continue
X suit la loi exponentielle de paramétre si elle admet pour densité
t
f (x) = e 1[0;+1[ (x): (1.30)
1 1
E(x) = et V (X) = 2
Loi normale
Dé…nition 1.19 (Loi normale) On dit que la v:a:X suit la loi normale N (m, ) si elle a
pour densité la fonction
fm; : R ! R+
: (1.31)
1 x m 2
x ! p1 e 2
( )
2
Dé…nition 1.20 Une v:a continue X suit la loi normale centrée réduite notée N (0; 1) lors
que X admet pour densité la fonction dé…nite par :
1 x2
f (x) = p e 2 : (1.32)
2
Proprétés :
2
E(X) = m et V (X) =
18
Chapitre 1. Varaible aléatoire
E(X) = 0 et V (X) = 1
X m
X N (m; ) () Y = N (0; 1)
Loi Gamma
Dé…nition 1.21 (Loi Gamma) Une v:a continue X suit une loi gamma (r; ); de para-
métres positifs r et ; si sa densité de probabilité est donné par
8
>
< e x( x)r 1
(x)
si x 0
f (x) = (1.33)
>
: 0 sinon
Z +1
(r) = e y y r 1 dy:
0
(r)
si y 0
f (x) =
>
: 0 si non
19
Chapitre 1. Varaible aléatoire
r r
E(X) = et V (X) = 2
Loi Bêta
Dé…nition 1.22 (Loi Bêta) Une v:a.absolument continue suit une loi b^
eta si sa densité de
probabilité est : 8
>
< x 1 (1 x) 1
B( ; )
si 0<x<1
f (x) = (1.34)
>
: 0 sinon
Z 1
1 1
B( ; ) = x (1 x) dx
0
( ): ( )
= :
( + )
On a
:
E(X) = et V (X) =
+ ( + )2 ( + + 1)
Loi de Cauchy
Dé…nition 1.23 (Loi de Cauchy) Une v:a:X absolument continue suit une loi de cauchy
C(0; a) si sa densité de probabilité est :
a
f (x) = ; a > 0; x 2 R: (1.35)
(x2 + a2 )
Loi de khi-deux
Dé…nition 1.24 (Loi de khi-deux) Soient k v:a:X1 ; X2 ; :::; Xk indépendante suivant une
loi normal N (mi ; i ); i = 1; :::; k .
20
Chapitre 1. Varaible aléatoire
La variable aléatoire
X
k
Xi mi
Z= ( )2 : (1.36)
i=1 i
2
suit un loi de khi-deux ( k )à k dégrés de liberté
Loi de Student
Soient deux v:a indépendantes X et Y distribuées suivant une loi normale N (0; 1) et celle du
2
k respectivement. La variable
X
T =q : (1.37)
Y
k
1
g(x) = :
(1 + x2 )
1 1
g(x) = p 1 k
: 2 k+1
:
kB( 2 ; 2 ) (1 + xk ) 2
La loi T de student est utilisée sur tout dans les tests statistique.
21
Chapitre 1. Varaible aléatoire
eitb eita
loi uniform U [a; b] x (t) = it(b a)
t2
loi normaleN (0; 1) x (t) =e 2
t2 2
loi normale N (m; ) x (t) = eitm e 2
[12]
Loi du couple
Si X et Y sont deux v:a:r continue, la loi de probabilité du couple (X; Y ) est déterminée par
sa fonction de répartition F dé…nie sur R2 par :
Dé…nition 1.25 La loi de couple (X; Y ) est dite absolument continue s’il existe une appli-
cation fX;Y de R2 sur R, appelée densité du couple (X; Y ), continue sur l’intérieur d’un sous
ensemble D de R2 et nulle sur son complémentaire, telle que, pour tout (x; y) 2 R2 :
Z x Z y
FX;Y (x; y) = fX;Y (u; v)dudv: (1.39)
1 1
Propriétés :
R +1 R +1 R +1 R +1
1. 1
( 1
f X;Y (u; v)du)dv = 1
( 1 fX;Y (u; v)dv)du = 1:
@ 2 FX;Y
2. En tout (x0 ; y0 ) ou fX;Y est continue, on a fX;Y (x0 y0 ) = @x@y
(x0 ; y0 ):
22
Chapitre 1. Varaible aléatoire
Loi marginales
c’est-à-dire en faisant tendre y, respactivenemt x, vers plus l’in…ni. Dans le cas d’une loi
absolument continue, les densités marginales sont alors obtenues par dérivation de ces fonction
de répartition marginales.
Cependant, si la loi du couple est dé…nie par sa densité, les densités marginales sont obtenues
plutôt par intégration : 8
> R
< fX (x) = +1 f (x; y)dy:
1
R +1 (1.41)
>
: f (y) = f (x; y)dx:
Y 1
Lois conditionnelles
Dé…nition 1.26 Si l’une des v:a:X ou Y a une valeur …xée, les lois conditionnelles sont
dé…nies par les densités conditionnelles :
8
>
< fX (x=Y = y) = f (x;y)
fY (y)
:
(1.42)
>
: fY (y=X = x) = f (x;y)
:
fX (x)
Si h : R2 ! R est une application continue, l’espérance de h(X; Y )se calcule pour une loi
de densité f par l’intégrale :
Z Z
E[h(X; Y )] = h(x; y)f (x; y)dxdy: (1.43)
R R
23
Chapitre 1. Varaible aléatoire
Dans le cas particulier où h(X; Y ) = [X E(X)][Y E(Y )], ceci dé…nit la covariance :
Z Z
E(XY ) = xyf (x; y)dxdy
R R
Z Z
= xfX (x)dx yfY (y)dy
R R
= E(X)E(Y ):
et par conséquent
Cov(X; Y ) = 0:
Indépendace
Dé…nition 1.27 Deux v:a:r:X et Y sont dites indépendante si, pour tout (x; y) 2 R2 ; on a :
On admet que ceci équivaut à fX;Y (x; y) = f X (x)fY (y) pour tout (x; y) 2 R2 ou bien
à E(g(X)h(Y )) = E(g(X))E(h(Y )) pour tout fonction g et h pour vu que ces espérance
existent.
Propriété : Si X et Y sont indépendantes, alorsfY (y=X = x) = fY (y) pour tout x tel que
fX (x) 6= 0 et fX (x=Y = y) = fX (x) pour tout y tel que fY (y) 6= 0:
Régression
Les densités conditinnelles permettent de calculer les moments conditionnelles, comme par
exemple les espérance ; on peut dé…nir notamment la fonction
x 7 ! E(Y =X = x)
24
Chapitre 1. Varaible aléatoire
Z Z
f (x; y)
E(Y =X = x) = yfY (y=X = x)dy = y dy: (1.46)
R R fX (x)
Changement de variables
Théorème 1.7 Soit (X; Y )un couple aléatoire de densité fXY et une fonction de R2 sur
R: Si fX;Y est continue sur l’interieur d’un ensemble D et nulle sur son comlémentaire, si
est un bijection de D
@x @x
1 @u @v
J( )= 6= 0:
@y @y
@u @v
sur E, alors le couple aléatoire (u; v) = (X; Y ) admet pour densité la fonction fU;V dé…nie
par
1 1
fU;V (u; v) = fX;Y ( (u; v)) J( )(u; v) si (u; v) 2 E: (1.47)
H(z) = P (Z z) = P (X + Y z);
Z Z
H(z) = f (x; y)dxdy; (1.48)
D
où le domaine d’intégration est D = f(x; y)=x+y < zg: On e¤ectue le changement de variable
suivant : 8 8
>
< >
<
u=x x=u
>
: v =x+y >
: y=v u
25
Chapitre 1. Varaible aléatoire
D(x; y) 1 0
= = 1;
D(u; v) 1 1
d’où l’intégrale :
Z +1 Z z x Z +1 Z z
H(z) = dx f (x; y)dy = du f (u; v u)dv;
1 1 1 1
Z +1
h(v) = f (u; v u) du:
1
[5]
26
Chapitre 2
Vecteurs Gaussiens
Dé…nition 2.1 On appelle vecteur aléatoire où variable aléatoire à valeurs dans Rn , une
application mesurable de ( ; T )dans (Rn ; B(Rn )):
8B 2 B(Rn ); PX (B ) = P (X 1
(B )) = P (X 2 B ): (2.1)
Dé…nition 2.2 Si X = (X1 ; :::; Xn ) est un vecteur à valeurs dans Rn . La loi de la v:a Xi
(1 i n) est appelée la ième loi marginal.
27
Chapitre 2.Vecteurs gaussiens
et seulement si
Z x1 Z xn
F (x1 ; :::; xn ) = ::: f (y1 ; :::; yd )dy1 :::dyn : (2.2)
1 1
= P (X 2 R :::: B ::::R)
= PX (R ::: B :::R);
Z
fXi (u) = f (x1 ; :::; xi 1 ; u; xi+1 ; :::; xn )dx1 :::dxi 1 dxi+1 :::dxn ; (2.3)
Rn 1
Comme pour les v:a:r, on dé…ne pour les vecteurs aléatoires des moments d’ordre 1et 2.
Dé…nition 2.4 Si X = (X1 ; :::; Xn ) un vecteur aléatoire lorsque chaque composante est une
v:a positive ou nulle, on appelle espérance (ou moyenne d’ordre 1) de X, le vecteur de Rd égal
a:
E(X) = (E(X1 ); :::; E(Xn )): (2.4)
Z Z Z
E(Xi ) = Xi (!)dP (!) = xi dPXi (xi ) = xi dPX (x); (2.5)
R Rn
28
Chapitre 2.Vecteurs gaussiens
Xn X
n X
V ar( Xi ) = V ar(Xi ) + 2 Cov(Xi ; Xj ): (2.6)
i=1 i=1 1 i<j n
Dé…nition 2.5 Si X = (X1 ; X2 ; :::; Xn )un vecteur aléatoire à valeurs dans Rn tel que
E(k X k 2 ) < 1: On appelle matrice de dispersion de X ou (matrice de variance covariance)
la matrice n n de terme générale
Cette matrice est bien dé…nie car, si la v:a k X k2 est intégrable, chaque variable Xi
est intégrable.
La matrice de dispersion est une matrice symetrique. Sa daigonale principale est formée des
variance de Xi :
1 x2 2bxy + y 2
f (x; y) = p exp( ):
2 1 b2 2(1 b2 )
avec jbj < 1: Nous avons vu que X1 et X2 suivent une loi gaussinne centrée réduite. Donc
E(X1 ) = E(X2 ) = 0 et V ar(X1 ) = V ar(X2 ) = 1: Nous connaissons donc le vecteur espé-
rance de X et la diagonale principale de la matrice de dispersion de X. Il reste à calculer
Cov(X1 ; X2 ): Comme les moyennes de X1 et X2 sont nulles, on a :
29
Chapitre 2.Vecteurs gaussiens
et :
Z
1 x2 2bxy + y 2
E(X1 X2 ) = xy p exp( )dxdy
2 1 b2 2(1 b2 )
Z Z !
1 x2 1 (y bx)2
= p xe 2 p y exp dy dx
2 2 (1 b2 ) 2(1 b2 )
= b:
Si on représente les vecteurs X et E(X) par des matrices colonnes, on peut écrire matriciel-
lement la matrice X sous la forme
où, étant donné un vecteur (ou un matrice) u:ut désigne sont tranposé.
L’espérance d’un vecteure aléatoire est lineaire alors que la disperion est une quntité quadra-
tique. Cela se voit, entre autre, dans les formules de la proposition suivante.
Proposition 2.3 Si X est un vecteur aléatoire à valeurs dans Rn ; tel que E(k X k2 ) < 1:
Si A est la matrice représentant une application linéaire de Rn dans Rn et si B est un vecteur
de Rn , alors le vecteur aléatoire Y = AX + B a valeur dans Rn est tel que E(k Y k2 ) < 1
et on a :
E(Y ) = AE(X) + B;
DY = ADX At :
30
Chapitre 2.Vecteurs gaussiens
Preuve. On a
81 i n ; Xi 2 L2 ( ; T; P ) ) 81 i n ; Yi 2 L2 ( ; T; P );
X
n
2
E( k Y k ) = E(Yi 2 );
i=1
E(Y ) = AE(X) + B:
Calculons DY :
= ADX At :
Dé…nition 2.6 Si Xest un vecteur aléatoire à valeurs dans Rn (n 1), on appelle fonction
caractéristique de X la fonction X de Rn dans C dé…nie par :
Pn
(ht; Xi désigne le produit scalaire de t et de X dans Rn : ht; Xi = i=1 ti Xi ):
La fonction exp(i ht; Xi) est de norme égale à 1 donc est P-intégrable. Si on note PX la loi
de X, on peut écrire la fonction caractéristique X de la maniére suivente :
Z
X (t) = exp(i ht; Xi)dPX (x):
Rn
31
Chapitre 2.Vecteurs gaussiens
X = Y:
Y
n
t n
8t = (t1 ; :::; tn ) 2 R ; X (t) = Xk (tk ):
k=1
[2]
32
Chapitre 2.Vecteurs gaussiens
0 1 0 1
2
m1 1 0
B C B C
B C B C
B : C B : C
B C B C
B C B C
E(X) = m = B
B : C
C et X =B
B : C:
C
B C B C
B C B C
B : C B : C
@ A @ A
2
mn 0 n
Notons que la matrice X est daigonnale en raison de l’indépendance des v:a:r:(Xi )i=1;:::;n :Comme
toutes les variances i sont strictement positives, on obtient aisément la matrice inverse
0 1
1
2 0
B 1 C
B C
B : C
B C
B C
X
1
=B
B : C:
C
B C
B C
B : C
@ A
1
0 2
n
On peut alors récrire la densité conjointe du vecteur X = (X1 ; :::; Xn ) sous la forme
1 1 1
fXi ;:::;Xn (x1 ; :::; xn ) = p n p exp (x m)t 1
X (x m) ;
2 det( X) 2
33
Chapitre 2.Vecteurs gaussiens
puisque
0 10 1
1
2 0 x1 m1
B 1 CB C
B CB C
B : CB : C
B CB C
B CB C
(x m)t 1
X (x m) = (x1 m1 ; :::; xn mn ) B
B : CB
CB : C
C
B CB C
B CB C
B : CB : C
@ A@ A
1
0 2 xn mn
n
X
n
(x mi )2
= 2
:
i=1 i
Y
n
2
Or, que la fonction caractéristique d’une v:a:r:de loi N (mj ; j ) est :
1 2 2
Xj (tj ) = exp itj mj t
2 j j
d’où on tire :
!
X
n
1X 2
n
2
X1 ;:::;Xn (t) = exp i tj mj t
j=1
2 j=1 j j
1 t
= exp itt m t Xt :
2
34
Chapitre 2.Vecteurs gaussiens
Remarquons en…n que toute combinaison linéaire des Xj , pour j = 1; :::; n; est de loi normale
dans R. Une combinaison linéaire des Xj s’écrit en e¤et de manière générale sous la forme :
1 2t
= exp iutt m ut Xt :
2
1 2
ht;Xi (u) = exp iua ub ;
2
avec a = tt m et b = tt X t: Par caractérisation, la v:a:r: ht; Xiest donc de loi N (tt m; tt X t):[4]
Dé…nition 2.7 Un vecteur aléatoire X = (X1 ; :::; Xn ) de Rn est dit vecteur gaussien si, pour
tout t = (t1 ; :::; tn ) de Rn , la v:a:r:
X
n
t
tX= ti Xi ; (2.11)
i=1
est une v:a:r. de loi normale. Autrement dit, si toute combinaison linéaire des composantes
de X = (X1 ; :::; Xn ) est de loi normale.
Si son vecteur des espérances est m et sa matrice de covariance est X, on note
X Nn (m; X ):
Remarquons que l’on peut en particulier en déduire que toutes les composantes du vecteur X
sont des v:a:r. de loi normale. En revanche, la réciproque est fausse. Un vecteur dont toutes
les composantes sont de loi normale, n’est pas nécessairement un vecteur gaussien.
La dé…nition précédente implique également que tout sous vecteur d’un vecteur gaussien est
encore un vecteur gaussien.
35
Chapitre 2.Vecteurs gaussiens
Propriété : Soit X1 ; :::; Xn des variables aléatoires réelles indépendantes de loi normale cen-
trée réduite. Alors, le vecteur X = (X1 ; :::; Xn )t est un vecteur aléatoire gaussien.[2]
Proposition 2.5 Pour qu’un vecteur X de Rn soit un vecteur gaussien il faut et il su¢ t
qu’il existe un vecteur m de Rn et une matrice symétrique et positif de dimension n n tels
que, pour tout vecteur t de Rn ; on ait :
1 t
X (t1 ; :::; tn ) = exp itt m t t : (2.13)
2
Preuve. Supposons que X soit un vecteur gaussien. Toute v:a:r:de la forme tt X, pour t dans
Rn , est donc de loi N (tt m; tt t):Ainsi sa fonction caractéristique est :
t 1 2t
tt X (u) = E(eiut X ) = exp iutt m ut t :
2
t 1 t
E(eit X ) = exp itt m t t :
2
36
Chapitre 2.Vecteurs gaussiens
1 t
X (t) = exp itt m t t = E(eiht;Xi );
2
pour tout t dans Rn . Notons maintenant Y = ht; Xi la variable aléatoire réelle dont la fonction
caractéristique est, pour tout u dans R :
t
Y (u) = E(eiuY ) = E(eiut X ) = E(eihut;Xi )
1 2t
= exp iutt m ut Xt
2
1 2
= exp iua ub ;
2
Remarque 2.2 On constate que la loi d’un vecteur gaussien est entièrement déterminer par
; et on note cette loi
X Nn (m; ):
Une propriété importante des vecteurs gaussiens est que l’indépendance des composantes est
équivalente à la nullité des covariances.
Remarque 2.3 Il faut prendre bien garde d’appliquer cette proposition avec toutes ses hypo-
thèses, deux v:a:r gaussiennes U et V de covariance nulle ne sont pas forcément indépendant
il faut que le couple (U; V ) soit gaussien.
Lorsque la matrice de dispersion d’un vecteur gaussien est inversible, la loi de se vecteur
admet une densité par rapport a la mesure de Lebesgue et on a la formule explicite de cette
densité.
37
Chapitre 2.Vecteurs gaussiens
En général, deux variables aléatoires réelles non corrélées ne sont pas nécessairement indépen-
dantes. Pour des vecteurs gaussiens, indépendance des coordonnées et absence de corrélation
sont deux notions équivalentes.
Propriétés : Soit X un vecteur gaussien dans Rn : Pour que ses composantes X1 ; :::; Xn
soient indépendantes, il faut et il su¢ t que la matrice de covariance soit diagonale.
Preuve. Il su¢ t, bien sûr, de montrer la réciproque. Supposons donc que X soit diagonale,
i.e
0 1
2
1 0 : : 0
B C
B C
B 0 : : : C
B C
B C
X =B
B : : : : : C
C:
B C
B C
B : : : 0 C
@ A
2
0 : : 0 n
Comme X est un vecteur gaussien de loi N (m; X ), chacune de ses composantes Xj , pour
2
j = 1; :::; n, est de loi normale N (mj ; j) et de fonction caractéristique :
1 2
X (t) = exp itj mj j tj ;
2
38
Chapitre 2.Vecteurs gaussiens
1 t
X (t) = exp itt m t Xt
2
!
X
n
1X
n
2
= exp i tj mj j tj
j=1
2 j=1
!
X
n
1 2
= exp itj mj j tj
j=1
2
Y
n
1 2
= exp itj mj j tj
j=1
2
Yn
= Xj (tj ):
j=1
est inversible et dé…nie positive (i.e. de déterminant det( X) > 0 non nul) et dans ce cas la
densité est :
1 1 1
8x 2 Rn ; fX (x) = n p exp (x m)t 1
(x m) : (2.14)
(2 ) 2 det( X) 2
posons
Y = B 1 (X m);
E(Y ) = B 1 E(X m) = 0;
39
Chapitre 2.Vecteurs gaussiens
Y = B 1 E(B 1 )t = Id;
les composantes de Y sont indépendante et sont toute de loi gaussienne centrée réduite
1 1
fY (x) = d exp kxk2 :
(2 ) 2 2
x = m + By
Z
1
E('(X)) = '(x) exp (x m)t (B t ) 1 B 1 (x m) dx
Rd 2
d’où le résultat
Z
d
1 1
E('(X)) = (2 ) det(B )
2 '(x) exp (x m)t (B t ) 1 B 1 (x m) dx:
Rd 2
Remarque 2.4 analogie avec le cas uni-dimensionel (n = 1). Si X 2 R suit loi normal
2
N (m; ); alors sa densité est :
1 1
(x m 2
) ; x 2 R:
fX (x) = p e 2 (2.15)
2 2
Propriétés :
La transformée d’un vecteur gaussien de Rn par une application linéaire de Rn vers Rp est
40
Chapitre 2.Vecteurs gaussiens
t 1 t
= X (A t) = exp itt Am tA XA
t
t :
2
Par caractérisation, le vecteur Y est donc un vecteur gaussien dans Rp de vecteur des espé-
t
rances Am et de matrice de covariance A XA , i.e
t
Y Np (Am; A X A ):
Théorème 2.1 (Le théorème central limite vectoriel) Soit (Xn )n 1 une suite de vec-
teurs aléatoires i:i:d. de Rd appartenant à L2 , d’espérance m 2 Rd et de matrice de covariance
Sn = X1 + :::: + Xn :
On a la convergence en loi
Sn nm
loi p !n !1 N (0; X ):
n
Remarque 2.5 On pourra écrire ainsi une sorte de développement limité des moyennes
empiriques de vecteurs i:i:d: sous la forme
41
Chapitre 2.Vecteurs gaussiens
Sn 1
wm+ p G
n n
hX; Y i = E(XY ) = 0;
Dé…nition 2.8 Soient fi1 ; :::; ip g f1; ::::; ng avec p n: Le sous-espace vectoriel (fermé)
engendré par les v:a:Zi1 ; :::; Zip est
( p )
X
V ect(Zi1 ; :::; Zip ) = k Zik ; k 2R : (2.17)
k=1
42
Chapitre 2.Vecteurs gaussiens
Propriété : Soit Y 2 L2 ( ; T; P )une v:a:r:telle que (Y; Zi1 ; :::; Zip ) 2 Rp+1 est un vecteur
aléatoire gaussien d’espérance nulle, l’espérance conditionnelle de Y sachant le vecteur
Ze = (Zi1 ; :::; Zip ); notée E(Y nZi1 ; :::; Zip ) ou E(Y nZ),
e est la projection orthogonale de Y sur
l’espace
( p )
X
V ect(Zi1 ; :::; Zip ) = k Z ik ; k 2R ; (2.18)
k=1
et dans le cas p = 1
Cov(Zi1 ; Y )
E(Y nZi1 ) = Zi1 :
V ar(Zi1 )
On peut alors remarquer que E(Y nZi1 ; :::; Zip ) est donc une v:a. gaussienne ce qui montre la
stabilité de la loi gaussienne par conditionnement. De plus on a également la décompo-
sition suivante lors du conditionnement par rapport à deux vecteurs gaussions indépendants.
Propriété : Soit Z 2 Rn et W 2 Rm deux vecteurs aléatoires gaussien indépendants et
d’spérance nulle. Soit Y 2 L2 ( ; T; P )une v:a:r: telle que (Y; Z 0 W 0 ) 2 Rn+m+1 est un vecteur
aléatoire gaussien d’espérance nulle. Alors, l’espérance conditionnelle de Y sachant le vecteur
Z
W
, notée E(Y nZ; W ) est la projection orthogonale de Y sur l’espace
( n )
X X
m
V ect(Z; W ) = k Zk + j Wj ; k; j 2R = V ect(Z) V ect(W ); (2.19)
k=1 j=1
et donc
E(Y nZ; W ) = E(Y nZ) + E(Y nW ):
Etudions maintenant les lois conditionnelles de certaines coordonnées d’un vecteur gaussien
sachant la valeur des autres coordonnées. Soit Z un vecteur aléatoire gaussien de dimension
n divisé en deux blocs de coordonnées X et Y de dimensions nX 1 et nY 1 telles que
X
n = nX + nY , i.e.Z = Y
: L’espérance de Z s’écrit alors sous la forme
E(X)
E(Z) = ;
E(Y )
43
Chapitre 2.Vecteurs gaussiens
où
La notion de densité conditionnelle vue précédemment pour les couples de variables aléatoires
réelles peut être étendue au cas des vecteurs aléatoires. La densité conditionnelle de Y sachant
X = x est alors la fonction
fZ (x; y)
fYX=x (y) = ; (2.21)
fX (x)
et on a le résultat suivant.
X
Propriété : Supposons que Z = Y
soit un vecteur gaussien, et que la matrice de covariance
X de X est dé…nie positive. Soit x 2 RnX La loi contionnelle de Y sachant X = x est alors
une loi gausienne d’espérance
t 1
E(Y nX = x) = E(Y ) + 0 X (x E(X));
et de matrice de covariance
X=x t 1
Y = Y 0 X 0;
et donc
1 1 1 1
8y 2 RnY ; fYX=x (y) = nY p exp (y mX=x
Y )t X=x
Y (y mX=x
Y ) :
(2 ) 2 (det( X=x
Y )) 2
(2.22)
1
avec mX=x
Y = E(Y ) + t
0 X (x E(X)):[2]
44
Bibliographie
[9] Saporta, Gilbert. Probabilités, analyse des données et statistique. Editions Technip, 2006
[10] Saussereau, Bruno. Cours de théorie des probabilités avec exercices corrigés et devoirs,
2013, 2014.
45
Annexe A : Abréviations et Notations
Les di¤érentes abréviations et notations utilisées tout au long de ce mémoire sont expliquées
ci-dessous.
: événement certain.
: ensemble vide.
A : événement contraire à A:
P (A) : probabilité de A:
T : tribu des événement.
( ;T) : espace probabilisable.
( ; T; P ) : espace probabilisé.
PX : loi de probabilité de X:
v:a : variable aléatoire.
F (X) : fonction de répartition.de X
E(X) : espérance mathématique du X.
V (X) : la variance de X:
: l’écart-type de X:
Cov(X; Y ) : covariance de X et Y:
X : la fonction caractéristique de X:
GX (s) : fonction génératrice.
Pij : loi joint du couple (X; Y ).
Pi : loi marginale de X:
46
Annexe B : Abréviations et Notations
47