0% ont trouvé ce document utile (0 vote)
52 vues53 pages

Hani Soumia

Ce mémoire de Master en Mathématiques, présenté par Hani Soumia, traite des vecteurs gaussiens et des variables aléatoires. Il aborde les modèles de probabilité, les variables discrètes et continues, ainsi que les propriétés des vecteurs gaussiens et leur importance en statistique. Le document inclut également des remerciements et une dédicace, ainsi qu'une bibliographie et des annexes.

Transféré par

Gaou Oudaïzou KALOUA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
52 vues53 pages

Hani Soumia

Ce mémoire de Master en Mathématiques, présenté par Hani Soumia, traite des vecteurs gaussiens et des variables aléatoires. Il aborde les modèles de probabilité, les variables discrètes et continues, ainsi que les propriétés des vecteurs gaussiens et leur importance en statistique. Le document inclut également des remerciements et une dédicace, ainsi qu'une bibliographie et des annexes.

Transféré par

Gaou Oudaïzou KALOUA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scienti…que

UNIVERSITÉ MOHAMED KHIDER, BISKRA


FACULTÉ des SCIENCES EXACTES et des SCIENCES de la NATURE et de la VIE

DÉPARTEMENT DE MATHÉMATIQUES

Mémoire présenté en vue de l’obtention du Diplôme :

MASTER en Mathématiques

Option : Statistique

Par
Hani Soumia

Titre :

Vecteurs Gaussiens
Membres du Comité d’Examen :
Dr. Berkane Hassiba UMKB Président

Dr. Ouanoughi Yasmina UMKB Encadreur

Dr. Kheireddine Souraya UMKB Examinateur

Septembre 2020
Dédicace
Je dédie ce humble travail.
La plus proch de mon coeur celle que a fait l’impossible pour me donner le bonheur mon
chère mère.
A mon père qui fait l’impossible pour me donner le bonheur et pour suivre mes études
jusqu’à ce jour.
Je dédie aussi ce travail à mes frères et tout ma famille:
A tous mes amies de promotion 2019/2020
de mathématiques.
A toute personne que prendra de son temps pour lire ce document à parfaire.

i
REMERCIEMENTS

Avant tout choses, je remercie à Dieu le tout puissant, pour m’avoir donnée la force et la
patience, la santé et la volonté pour réaliser ce modeste travail.
Mes premiers remerciement s’adressent à mon encadreur Mdm.Ouanoughi Yasmina qui
a bien voulu me proposer ce thème et m’aider au cours de sa réalisation.
Je tiens à remercier :Dr. Hacene Nacer pour ces vonseils, ses orientations, et la con…ance
qu’il m’accorde.
Je tien à remercie les membres du Jury qui m’ont fait l’honneur de participer
à ma soutenance.
Je remercie ma famille à qui je n’ai jamais su dire tout l’a¤ection que j’ai pour aux, mon
père, ma mère, mes frères et ma soeur qui ont été et seront toujours présents à mes côtés,
merci pour votre soutient et vos encouragements.
Un grand merci particulier à mes collègues et mes amies pour les sympathiques moments
qu’on a passés ensemble, on les remerci pour leur con…ance, et leur soutien moral au
cours de ces années.
Que tout ceux, que je n’ai pas nommés.

Merci

ii
Table des matières

Dédicace i

Remerciements ii

Table des matières iii

Liste des tableaux v

Introduction 1

1 Variables aléatoires 2
1.1 Modèle de Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Espace de Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Variables discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Moments d’une Variable aléatoire discète . . . . . . . . . . . . . . . . 4
1.2.3 Lois discrètes classiques . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.4 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.5 Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.6 Couple de v.a discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.7 Relation entre deux v.a . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Variable continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.2 Fonction de densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

iii
Table des matières

1.3.3 Caractéristiques des variables aléatoires . . . . . . . . . . . . . . . . . 16


1.3.4 Loi de probabilité continue . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.5 Couple de v.a continue . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Vecteurs Gaussiens 27
2.1 Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Loi d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.2 Moments d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . 28
2.1.3 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2 Vecteurs Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.1 Exemple fondamental . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.2 Caractéristique des vecteus gaussiens . . . . . . . . . . . . . . . . . . 35
2.2.3 Quelques propriétés des vecteurs gaussiens . . . . . . . . . . . . . . . 38
2.2.4 Le théorème central limite vectoriel . . . . . . . . . . . . . . . . . . . 41
2.2.5 Espérance conditionnelle et projection orthogonale . . . . . . . . . . 42
2.2.6 Lois conditionnelles et prédiction . . . . . . . . . . . . . . . . . . . . 43

Bibliographie 45

Annexe B : Abréviations et Notations 46

iv
Liste des tableaux

1.1 fonction caractéristique de loi discrètes . . . . . . . . . . . . . . . . . . . . . 10


1.2 fonction caractéristique de loi continues . . . . . . . . . . . . . . . . . . . . . 22

v
Introduction

La popularité des modèles gaussiens tient à ce qu’ils se prêtent bien au calcul et les pro-
blèmes relatifs à de tels modèles reçoivent souvent une solution analytique complète sous
une forme agréable. Cet avantage réside principalement dans les deux propriétés de stabi-
lité suivantes : d’une part les transformations a¢ nes des vecteurs gaussiens produisent des
vecteurs gaussiens, d’autre part lorsque deux vecteurs sont gaussiens dans leur ensemble, le
conditionnement de l’un par l’autre conduit à un vecteur gaussien qui est une combinaison
a¢ ne du vecteur conditionnant Cependant, le seul fait que le calcul gaussien soit agréable ne
su¢ rait pas à justi…er l’usage des modèles gaussiens.
Il y a une raison profonde qui fait que la distribution gaussienne apparait naturellement dans
les phénomènes aléatoires dont la base physique est de nature microscopique et qu’on observe
à l’échelle macroscopique. Les petite contributions supposées indépendantes (mais cette hy-
pothèse n’est pas absolument nécessaire) de chaque électron, s’ajoute pour former un courant
gaussien, et cela quelle que soit la distribution statistique des contributions individuelles.
Les variables gaussiennes sont des lois universelles qui sont d’une importance particulière.
Il sera très utile en particulier en statistique de pouvoir passer du cas de la dimension 1
à des dimensions plus grandes. Ce passage nécessite de développer un formalisme qui sera
l’objet du chapitre (1). Dans le chapitre 2, nous calculerons la fonction caractéristique des
vecteurs gaussiens que nous aurons préalablement dé…nis. Nous montrerons aussi comment
nous pouvons alors aborder de manière très e¢ cace et très simple les problèmes d’indépen-
dance de variables gaussiennes. Nous énoncerons ensuite le théorème central limite vectoriel.
Nous terminerons par la propriété suivante : le conditionnement de deux vecteurs gaussien
conduit à un vecteur gaussien qui est une combinaison a¢ ne du vecteur conditionnant.

1
Chapitre 1

Variables aléatoires

1.1 Modèle de Probabilité

Dé…nition 1.1 (Tribu) On dit que T est une tribu de l’univers si, et seulement si,

1. 2 T:

2. Pour tout A 2 T , A 2 T:

3. Pour toute famille d’événements (Ak )k2N telle que, pour k 2 N Ak 2 T [1


k=0 Ak 2 T:[3]

Dé…nition 1.2 (Probabilités) On appelle probabilité dé…nie sur ( ; T ) toute application


P : T ! R telle que :

i P ( ) = 1:

ii Pour tout suit An d’événement incompatibles, soit An 2 T avec An \Am = ? pour m 6= n :

X
+1
P ([+1
n=0 An ) = P (An ): (1.1)
n=0

1.1.1 Espace de Probabilité

Le triplet( ; T; P ) est appelé espace probabilisé si est …ni ou in…ni dénombrable (comme,
par exemple, = N), on prend T = P ( ), l’ensemble des parties de .

2
Chapitre 1. Varaible aléatoire

Propriètès élémentaires :

1. P (A) = 1 P (A):

2. P (A) = P (A \ B) + P (A \ B):

3. A B ) P (A) P (B):

4. Si est …nie ou in…nie dénombrable :

X X
P (A) = P (f!g); P (f!g) = 1: (1.2)
!2A !2

1.2 Variables discrètes

Dé…nition 1.3 (Variables discrètes) Si X est une variable que ses valeurs dant un en-
semble …ni ou dénombrable I. On dit qu’elle est discrètes pour ce type de variable on dé…nit
la fonction poids en chaque point :

P (i) = P (X = i); i 2 I: (1.3)

1.2.1 Fonction de répartition

Dé…nition 1.4 (Fonction de répartition) On appelle fonction de répartition de la v:a.X;


la fonction FX dé…nite sur R par

FX (x) = P (X x) = PX (] 1; x]): (1.4)

Propriétés :
0 0
– FX fonction croissante au sens large. i; e si x x ) FX (x) FX x :
– limx! 1 FX (x) = 0:
– limx!+1 FX (x) = 1:
– FX est continue à droite en tout point de R.
– FX n’est pas nécessairement continue à gauche.[11]

3
Chapitre 1. Varaible aléatoire

1.2.2 Moments d’une Variable aléatoire discète

Dé…nition 1.5 (L’espérance mathématique) L’espérence ou moyenne d’une v:a discrète


X est, le réel
X
E(X) = kP [X = k]; (1.5)
k

ou on somme sur toutes les valeurs k que prendre X.

Propiétés Soient X et Y deux v:a.on a les propriétés :

1. E(X) est …nie ssi E(jXj)est …nie.

2. jXj Y et E(Y ) est …nie entrainent E(X) …nie.

3. -1 < a X b < +1 ) a E(X) b:

4. X = a p.s ) E(X) = a:

5. E(X) …nie suivant consigne les propriétés de l’esperance mathématique.

Théorème 1.1 Soit X et Y deux v:a.discrètes


Si E jXj < 1 et E jY j < 1, alors on a les propriétes :

A :lineairité :

(1)E(X + Y ) = E(X) + E(Y ):

(2)E( X) = E(X) 8 2 R:

B :Monotonie :

(1)X 0 ) E(X) 0:

(2)X Y ) E(X) E(Y ):

(3)X = Y p.s ) E(X) = E(Y ):

C :Indépendance : Si X et Y sont indépendance, alors E(XY ) est …nie et l’on a

E(XY ) = E(X)E(Y ):

[8]

4
Chapitre 1. Varaible aléatoire

Théorème 1.2 Pour tout fonction g,

X
E(g(X)) = g(k)P (X = k): (1.6)
k

Dé…nition 1.6 (Variance) Nous dirons qu’une v:a X de carré integrable si E(X 2 ) < +1.
L’ensemble des v:a.de carré intégrable est noté L2 .
Supposons que E(X 2 ) < 1, on appelle Variance de X le nombre positif

V ar(X) = E(X E (X))2 : (1.7)

On a

V ar(X) = E(X E (X))2


X
= (k E (X))2 P [X = k]
k

= E X2 E (X)2 :

La variance mesure le carré d’une distance a la moyenne.


Ecart-Type de X :
p
(X) = V ar(X): (1.8)

[7]

5
Chapitre 1. Varaible aléatoire

Propriétés de la variance :
– Soient a et b deux constantes et X v:a :

V (aX + b) = a2 :V (X):

En e¤et :
V (aX + b) = E((aX + b) E(aX + b))2 ;

or, d’aprées la première propriété de l’espérance mathématique et aprés simpli…cation :

V (aX + b) = E[a2 (X E(X))2 ]

= a2 E(X E(X))2

= a2 V (X):

– Soient X et Y deux v:a independantes :

V (X + Y ) = E[X + Y E(X + Y )]2

= E[X E(X) + Y E(Y )]2

= E[X E(X)]2 + E[Y E(Y )]2 + 2E[(X E(X))(Y E(Y ))]

= V ar(X) + V ar(Y ):

Ce résultat se généralisé pour n v:a indépendante. Soient X1 ; X2 ; :::; Xn n v:a indépendante,


nous obtenons :

V (X1 + X2 + ::: + Xn ) = V (X1 ) + V (X2 ) + ::: + V (Xn ):

Donc pour les v:a indépendante, la variance d’une somme est égale à la somme des va-
riances.

6
Chapitre 1. Varaible aléatoire

Dé…nition 1.7 Nous dirons qu’une v.a de carré intégrable X est centrée réduite si

E(X) = 0 ; V ar(X) = 1:

Proposition 1.1 Soit Y v:a de carré intégrable. Alors, la v:a:X dé…nie par :

Y E(Y )
X= ;
Y

est centée réduite.

1.2.3 Lois discrètes classiques

Loi de Bernoulli

Dé…nition 1.8 La variable aléatoire X suit la loi de Bernoulli de paramètre p (p 2 [0; 1]) si
elle ne prend que deux valeurs 0 et 1 avec :
8
>
< P (X = 1) = p:
(1.9)
>
: P (X = 0) = 1 p = q:

Notation 1 X B(p).

Proposition 1.2 Si X suit la loi de Bernoulli de paramétre p

E(X) = p et V (X) = p(1 p)

Loi uniforme sur un ensemble …ni de rèels

Dé…nition 1.9 La variable aléatoire X suit la loi uniforme sur l’ensemble de réels fx1 ; :::; xn g
si Px est l’équiprobabilité sur cet ensemble.

Autrement dit, l’ensemble des valeurs possibles de X est X( ) = fx1 ; :::; xn g et :

1
8k = 1; :::; n; P (X = xk ) = : (1.10)
n

7
Chapitre 1. Varaible aléatoire

Par exemple le nombre de points indiqué par un dé suit la loi uniforme sur f1; 2; 3; 4; 5; 6g.

Loi binomiale

Dé…nition 1.10 La variable aléatoire X suit la loi binomiale de paramétres n et p (n 2 N et


p 2 [0; 1]) si l’ensemble des valeurs possibles est X( ) = f1; :::; ng et

8k = 1; :::; n; P (X = k) = Cnk pk (1 p)n k : (1.11)

Notation 2 X B(n; p).

La formule ci-dessus dé…nit bien une loi de probabilité puisque les Cnk pk (1 p)n k
sont positifs
et :
n k k
k=0 Cn p (1 p)n k
= (p + (1 p))n = 1n = 1:

Théorème 1.3 La somme de n v:a discrètes de Bernoulli indépendant, de même paramétre


p, suit la loi binomaile B(n; p):

Proposition 1.3 Si X suit la loi binomaile B(n; p)

E(X) = np et V (X) = np(1 p)

Loi géométrique

Dé…nition 1.11 On dit que X est le temps d’attente du premier événement A:

Soit p 2 ]0; 1[ . On dit qu’une v:a X suit la loi géométrique de paramétre p, (note G(p))
lorsque X prend les valeurs n 2 N avec les probabilités

P (X = n) = p(1 p)n 1 : (1.12)

Proposition 1.4 Si X suit la loi géométrique de paramétre p. On a :

1 (1 p)
E(X) = et V (X) =
p p2

8
Chapitre 1. Varaible aléatoire

Loi de Poisson

Dé…nition 1.12 On dit que la variable alétoire discète X suit la loi de Poisson de paramétre
> 0 si l’ensemble des valeurs possibles est X( ) = N et

k
e
8k 2 N; P (X = k) = : (1.13)
k!

Notation 3 X P ( ):

Proposition 1.5 Si X suit la loi de Poisson P ( ), on a :

E(X) = et V (X) =

1.2.4 Fonction caractéristique

Dé…nition 1.13 (Fonction caractéristique) Soit X une v:a.discrète de fonction de masse


P . On appelle fonction caractéristique de X, la fonction de la variable t (t 2 R) dé…nie par :

X
itX
X (t) = E(e )= eitx p(x): (1.14)
x2R

Théorème 1.4 Si X et Y deux v:a indépendante alors :

(X+Y ) (t) = X (t) Y (t):

Preuve. On a

(X+Y ) (t) = E(eit(X+Y ) ) = E(eitX eitY )

= E(eitX )E(eitY )

= X (t) Y (t):

9
Chapitre 1. Varaible aléatoire

Exemple de fonction caractéristique

Loi de Bernoulli B(1,p) X (t) = 1 p(1 eit )


Loi binomiale B(n,p) X (t) = (1 p + peit )n
(eit 1)
Loi de Poisson P( ) X (t) = e
pe it
Loi géométrique G(p) X (t) = (1 (1 p)eit )

Tab. 1.1 –fonction caractéristique de loi discrètes

[12]

1.2.5 Fonction génératrice

Dé…nition 1.14 (Fonction génératrice) La fonction génératrice de X est la fonction dé-


…nie pour s 2 [0; 1] par :

X
GX (s) = E(sX ) = P (X = n)sn : (1.15)
n2N

C’est la somme d’une série entière dont le rayon de convergence est au moins 1, car
P
n Pn = 1:

Cette fonction caractérise la loi de X.

1.2.6 Couple de v.a discrètes

Loi d’un couple

Un couple de v:a: discrètes est constitué de deux v:a: discrètes X et Y dont l’ensmble des
valeurs possibles peut s’écrire respectivement sous la forme fxi gi2I et fyj gj2J , où I et J sont
des ensembles d’indices inclus dans N, pouvant d’ailleurs être N tout entier. On convient
de ne faire …gurer que des valeurs de probabilité strictemeent positive. Comme dans le cas
unidimensionnel, la loi d’un couple discrèt est dé…nie par l’ansemble des valeurs possibles,

10
Chapitre 1. Varaible aléatoire

soit ici f(xi ; yj ); (i; j) 2 I Jg; et par les probabilités associéés :

Pij = PX;Y = P (X = xi \ Y = yj ): (1.16)

[6]

Lois marginales

La loi d’un couple est associé au deux lois marginales qui sont les lois de chacun des éléments
du couple pris séparément, dé…nies par l’ensemble des valeurs possibles et les probabilités
associées obtenues par sommation, soit :
8
< PX (X = xi ) = P P(X;Y ) (X = xi ; Y = yj ) = P Pij = Pi :
>
j2J j2J
P P (1.17)
>
: PY (Y = yj ) = i2I P(X;Y ) (X = xi ; Y = yj ) = i2I Pij = Pj :

[6]

Lois conditionneles

Les événements fX = xi g et fY = yj g étant de probabilités non nulles on dé…nit alors deux


familles de lois conditionnelles selon que l’on connaît la « valeur » de X ou de Y . Rappelons
qu’ici X et Y ne sont pas forcément des variables aléatoires réelles mais peuvent être des
variables qualitatives
– Lois conditionneles de X si Y = yj :

Pij P (X = xi \ Y = yj )
P (X = xi =Y = yj ) = = : (1.18)
Pj P (Y = yj )

– Lois conditionneles de Y si X = xi :

Pij P (X = xi \ Y = yj )
P (Y = yj =X = xi ) = = : (1.19)
Pi P (X = xi )

11
Chapitre 1. Varaible aléatoire

le théorème des probabilités totales (deuxième forme) permet d’écrire :

P
P (Y = yj \ X = xi ) = j2J P (X = xi =Y = yj )P (Y = yj )
P
= i2I P (Y = yj =X = xi )P (X = xi ):

[6]

Loi d’une somme

Si X et Y sont deux v:a.discrètes de lois respectives f(xi ; pi ); i 2 Ig et f(yj ; qj ); j 2 Jg : La


v:a Z = X + Y est aussi une v:a discrètes dont la loi de probabilité est dé…nie par l’ensemble
des valeurs possible, soit ici f(xi + yj ); i 2 I; j 2 Jg, et les probabilité associeés :

X
P (Z = zk ) = fP (X = xi ; Y = yj )=xi + yj = zk g: (1.20)

Dans la cas générale cette formule ne peus donc être dé…nie que par la donnée de la loi du
couple (X; Y ).
– Cas particulier : X et Y sont indépendantes.
On parle alors de convolution des lois X et Y , qui est dé…nie par :

P
P (Z = zk ) = i2I P (X = xi )P (Y = zk xi )
P
= j2J P (Y = yj )P (X = zk yj ):

Exemple 1.1 Convolution de lois de poisson.


Si X et Y sont deux v:a indépendantes de lois de poisson respectives P ( ) et P ( );alors

12
Chapitre 1. Varaible aléatoire

Z = X + Y est une v:a à valeurs dans N, avec pour tout entier k :

X X
P (Z = k) = P (X = x)P (Y = y) = P (X = x)P (Y = k x)
x+y=k x2N

X
k
= P (X = x)P (Y = k x)
x=0
Xk x k x
= e e
x=0
x! (k x)!
X
k
k!
( + ) x k x
=e
x=0
x!(k x)!
( + )
e
= ( + )k :
k!

on retrouve bien comme résultat : X + Y P ( + ):

1.2.7 Relation entre deux v.a

Théorème 1.5 Soit f une application de R2 dansR, telle que f (X; Y ) admette une espérance.
Alors

X
E(f (X; Y )) = f (xi ; yj )P ([X = xi ] \ [Y = yj ])
i;j
X
= f (xi ; yj )Pij :
i;j

Propriété : Si X et Y sont indépendantes. Alors E(XY ) = E(X)E(Y ):

Remarque 1.1 La réciproque est engénérale fausse.

Dé…nition 1.15 (Covariance) Soient X et Y deux v:a r d’ordre 2 .On appelle :covariance
de X et Y , le réel Cov(X; Y ) dé…nie par :

Cov(X; Y ) = E[(X E(X))(Y E(Y ))] = E(XY ) E(X)E(Y ): (1.21)

13
Chapitre 1. Varaible aléatoire

co¢ cient de corrélation (linèaire ) de X et de Y le réel '(X; Y ) est dé…nie par

Cov(X; Y )
'X;Y = p p : (1.22)
V ar(X) V ar(Y )

Matrice de covariance : De x et de y, la matrice (X; Y ) dé…nie par :

0 1 0 1
B V ar(X) Cov(X; Y ) C B Cov(X; X) Cov(X; Y ) C
(X; Y ) = @ A=@ A: (1.23)
Cov(Y; X) V ar(Y ) Cov(Y; X) Cov(Y; Y )

Propriétés

1. Cov(X; Y ) = Cov(Y; X) = E(XY ) E(X)E(Y ).

2. V ar(X + Y ) = V ar(X) + V ar(Y ) + Cov(X; Y ).

3. Si X et Y sont indépendance, alors Cov(X; Y ) = 0.

4. Cov(aX + bY; Z) = aCov(X; Z) + bCov(Y; Z).


ac
5. (X; Y ) 2 [ 1; 1] et (aX + b; cY + d) = jacj
(X; Y ):

6. (X; Y ) est matrice réelle symétrique et, pour tout (u; v) 2 R2

(u; v) (X; Y )(u; v)t 0:

1.3 Variable continue

Il existe des variable alétoire dont les valeurs possibles ne sont pas dans une ensemble …ni ou
dénombrable mais dans un ensemble dénombrable.
Soit X ce genre de v.on dit qu’elle est continue s’il existe une fonction positive f de…nie pour
R
tout réel x 2 Rtel que pour tout partie B de nombres réels P (X 2 B) = B f (x)dx

Z +1
P (X 2] + 1; 1[) = f (x)dx: (1.24)
1

14
Chapitre 1. Varaible aléatoire

8
> Rb
< si B = [a; b] P (a < X < b) = a f (x)dx:
> Ra
: si a=b P (X = a) = a f (x) = dx = 0:

La probabilité qu’une variable continue soit égale à une valeur …xée est nulle

Z a
P (X < a) = P (X a) = f (x)dx: (1.25)
1

1.3.1 Fonction de répartition

D’une façon générale, désignons par X une v:a continue prenant ses valeurs sur l’ensemble
des nombres réel R. Soit x un nombre réel particulier, la probabilité que X prenne une valeur
inférieure ou égale à x est exprimée par :

F (x) = P (X x):

La fonction F (x) est appelée la fonction de répartition de X.


Propriétés de la fonction de répartition

1. F (x) est une fonction continue dérivable.

2. F (x) est une fonction croissante pour tout x.

1.3.2 Fonction de densité

Dé…nition 1.16 (Fonction de densité) On dit que la loi PX d’une v:a:r X admet fX
comme densité s’il existe une telle fonction fX positive et telle tout x 2 R on a :

Z x
FX (x) = fX (t)dt: (1.26)
1

15
Chapitre 1. Varaible aléatoire

Une v:a:r qui admet une densité est dite absolument continue. Cette dé…nition est équi-
valente à l’existence d’une fonction fX positive et telle que :

Z
8A 2 T , PX (A) = P (X 2 A) = fX (t)dt:
A

Théorème 1.6 Une fonction f sur R est une densité de probabilité si et seulement si elle
véri…e les trois assertions suivantes :

i) f est positive.

ii) f est mesurable.

iii) f est intégrable et


Z
f (t)dt = 1:
R

Proposition 1.6 Si fX est continue sur une intevalle [a; b], alors FX est dérivable sur [a; b]
0
est on a fX = FX :

La probabilité que la v:a X prenne une valeur dans l’intervalle [a; b] est :

Z b
P (a X b) = F (b) F (a) = f (x)dx:
a

On en déduit que P (X = a) = 0.

1.3.3 Caractéristiques des variables aléatoires

Espérance mathématique

Soit X un variable aléatoire. On appelle espérance mathématique moment d’ordre 1 par


rapport à l’origine la quantité E[X] dé…nie par :

Z +1
E[X] = xf (x)dx: (1.27)
1

16
Chapitre 1. Varaible aléatoire

L’espérance d’une fonction aléatoire

Si X est une variable continue de densité de probabilitéf (x) alor pour tout fonction
réelle g
Z +1
E[g(X)] = g(x)f (x)dx: (1.28)
1

Variance

Si X est une v.a de moyenne E[X], alors la variance de X est dé…nie par :

V (X) = E[(X E(X))2 ]

= E[X 2 ] E[X]2 :

1.3.4 Loi de probabilité continue

Loi uniforme

Dé…nition 1.17 (Loi uniforme) La v:a.Continue X suit la loi uniforme sur l’intervalle
[a; b], ( 1 < a < b < +1) si elle a une densité f constante sur cet intervalle et nulle en
dehors .On a alors :
1
f (x) = I[a;b] (x):
b a

La fonction de répartition F est a¢ ne par morceaux :


8
>
>
>
> 0 si 1<x a:
<
F (x) = x a (1.29)
si a < x b:
>
> b a
>
>
: 1 si b < x < +1:

17
Chapitre 1. Varaible aléatoire

Proposition 1.7 Si X suit la loi uniforme sur [a; b],alors :

b+a (b a)2
E(X) = et V (X) =
2 12

Loi exponentielle

Dé…nition 1.18 (Loi exponentielle) Soit une réel strictement positive. La v:a continue
X suit la loi exponentielle de paramétre si elle admet pour densité

t
f (x) = e 1[0;+1[ (x): (1.30)

Proposition 1.8 Si X suit la loi exp( ) alors :

1 1
E(x) = et V (X) = 2

Loi normale

Dé…nition 1.19 (Loi normale) On dit que la v:a:X suit la loi normale N (m, ) si elle a
pour densité la fonction
fm; : R ! R+
: (1.31)
1 x m 2
x ! p1 e 2
( )
2

Dé…nition 1.20 Une v:a continue X suit la loi normale centrée réduite notée N (0; 1) lors
que X admet pour densité la fonction dé…nite par :

1 x2
f (x) = p e 2 : (1.32)
2

Proprétés :

1. Si X suit la loi normale N (m; ), on a :

2
E(X) = m et V (X) =

18
Chapitre 1. Varaible aléatoire

2. Si X suit la loi normale N (0; 1) on a :

E(X) = 0 et V (X) = 1

3. Si X une v:a continue

X m
X N (m; ) () Y = N (0; 1)

Loi Gamma

Dé…nition 1.21 (Loi Gamma) Une v:a continue X suit une loi gamma (r; ); de para-
métres positifs r et ; si sa densité de probabilité est donné par
8
>
< e x( x)r 1

(x)
si x 0
f (x) = (1.33)
>
: 0 sinon

est la fonction enlérienne dé…nie par l’intégrale pour r > 0

Z +1
(r) = e y y r 1 dy:
0

– En particulier, si r = 1, on retrouve la loi exp:


– Si la paramètre est di¤érent de 1, la v.a Y = X suit une loi (r; 0) ou (1) de densité :
8
>
< e y yr 1

(r)
si y 0
f (x) =
>
: 0 si non

Proprétés de la fonction (r)


– (r) = (r 1) (r 1);
– (1) = 1;
– (n) = (n 1);
Moment

19
Chapitre 1. Varaible aléatoire

Par intégration par parties et en utilisant les propriétés de la fonction , on obtient :

r r
E(X) = et V (X) = 2

Loi Bêta

Dé…nition 1.22 (Loi Bêta) Une v:a.absolument continue suit une loi b^
eta si sa densité de
probabilité est : 8
>
< x 1 (1 x) 1

B( ; )
si 0<x<1
f (x) = (1.34)
>
: 0 sinon

ou et sont constantes et B( ; ) est la fonction béta

Z 1
1 1
B( ; ) = x (1 x) dx
0
( ): ( )
= :
( + )

On a
:
E(X) = et V (X) =
+ ( + )2 ( + + 1)

Loi de Cauchy

Dé…nition 1.23 (Loi de Cauchy) Une v:a:X absolument continue suit une loi de cauchy
C(0; a) si sa densité de probabilité est :

a
f (x) = ; a > 0; x 2 R: (1.35)
(x2 + a2 )

E(X k ) n’existe pas ; k 1:

Loi de khi-deux

Dé…nition 1.24 (Loi de khi-deux) Soient k v:a:X1 ; X2 ; :::; Xk indépendante suivant une
loi normal N (mi ; i ); i = 1; :::; k .

20
Chapitre 1. Varaible aléatoire

La variable aléatoire
X
k
Xi mi
Z= ( )2 : (1.36)
i=1 i

2
suit un loi de khi-deux ( k )à k dégrés de liberté

– La densité de probabilité de la v:a Z est :


8
>
< 1
e 2
x
x2
k
1
si x 0:
k
2 2 ( k2 )
f (x) =
>
: 0 si x < 0:

On a E(Z) = k et V (Z) = 2k.


– Cette loi est sur tout utile dans les tests statistique.

Loi de Student

Soient deux v:a indépendantes X et Y distribuées suivant une loi normale N (0; 1) et celle du
2
k respectivement. La variable
X
T =q : (1.37)
Y
k

Suit une loi de student à k dégres de liberté.


On a
k
E(T ) = 0; k > 0 et V (T ) = ; k>0
k 2

Si on a k = 1, alors on obtient la loi de Cauchy dont la densité est :

1
g(x) = :
(1 + x2 )

D’une façon générale la densité T s’écrit :

1 1
g(x) = p 1 k
: 2 k+1
:
kB( 2 ; 2 ) (1 + xk ) 2

La loi T de student est utilisée sur tout dans les tests statistique.

21
Chapitre 1. Varaible aléatoire

Exemples de fonction caractéristique

eitb eita
loi uniform U [a; b] x (t) = it(b a)
t2
loi normaleN (0; 1) x (t) =e 2

t2 2
loi normale N (m; ) x (t) = eitm e 2

loi exp ( ) x (t) = it


loi gamma (r; ) x (t) = ( it
)r

Tab. 1.2 –fonction caractéristique de loi continues

[12]

1.3.5 Couple de v.a continue

Loi du couple

Si X et Y sont deux v:a:r continue, la loi de probabilité du couple (X; Y ) est déterminée par
sa fonction de répartition F dé…nie sur R2 par :

F (x; y) = P (X < x; Y < y): (1.38)

Propriété : les fonction de répartition des v:a:r:X et Y vér…ent

FX (x) = lim FX;Y (x; y) et FY (y) = lim FX;Y (x; y):


y!+1 x!+1

Dé…nition 1.25 La loi de couple (X; Y ) est dite absolument continue s’il existe une appli-
cation fX;Y de R2 sur R, appelée densité du couple (X; Y ), continue sur l’intérieur d’un sous
ensemble D de R2 et nulle sur son complémentaire, telle que, pour tout (x; y) 2 R2 :

Z x Z y
FX;Y (x; y) = fX;Y (u; v)dudv: (1.39)
1 1

Propriétés :
R +1 R +1 R +1 R +1
1. 1
( 1
f X;Y (u; v)du)dv = 1
( 1 fX;Y (u; v)dv)du = 1:
@ 2 FX;Y
2. En tout (x0 ; y0 ) ou fX;Y est continue, on a fX;Y (x0 y0 ) = @x@y
(x0 ; y0 ):

22
Chapitre 1. Varaible aléatoire

Loi marginales

Les fonction de répartition marginales de X et Y sont dé…nies à partir de la fonction de


répartition.du couple par :
8
>
< FX (x) = P (X < x) = PX ( 1; x) :
(1.40)
>
: FY (y) = P (Y < y) = PY ( 1; y) :

c’est-à-dire en faisant tendre y, respactivenemt x, vers plus l’in…ni. Dans le cas d’une loi
absolument continue, les densités marginales sont alors obtenues par dérivation de ces fonction
de répartition marginales.
Cependant, si la loi du couple est dé…nie par sa densité, les densités marginales sont obtenues
plutôt par intégration : 8
> R
< fX (x) = +1 f (x; y)dy:
1
R +1 (1.41)
>
: f (y) = f (x; y)dx:
Y 1

Lois conditionnelles

Dé…nition 1.26 Si l’une des v:a:X ou Y a une valeur …xée, les lois conditionnelles sont
dé…nies par les densités conditionnelles :
8
>
< fX (x=Y = y) = f (x;y)
fY (y)
:
(1.42)
>
: fY (y=X = x) = f (x;y)
:
fX (x)

à condition bien sûr que fY (y) > 0 et fX (x) > 0:

Moment associés à un couple

Si h : R2 ! R est une application continue, l’espérance de h(X; Y )se calcule pour une loi
de densité f par l’intégrale :

Z Z
E[h(X; Y )] = h(x; y)f (x; y)dxdy: (1.43)
R R

23
Chapitre 1. Varaible aléatoire

Dans le cas particulier où h(X; Y ) = [X E(X)][Y E(Y )], ceci dé…nit la covariance :

Cov = E ((X E(X)) (Y E(Y ))) : (1.44)

Dans le cas particulier où v:a:X et Y sont indépendantes :

Z Z
E(XY ) = xyf (x; y)dxdy
R R
Z Z
= xfX (x)dx yfY (y)dy
R R

= E(X)E(Y ):

et par conséquent
Cov(X; Y ) = 0:

Indépendace

Dé…nition 1.27 Deux v:a:r:X et Y sont dites indépendante si, pour tout (x; y) 2 R2 ; on a :

FX;Y (x; y) = FX (x)FY (y): (1.45)

On admet que ceci équivaut à fX;Y (x; y) = f X (x)fY (y) pour tout (x; y) 2 R2 ou bien
à E(g(X)h(Y )) = E(g(X))E(h(Y )) pour tout fonction g et h pour vu que ces espérance
existent.

Propriété : Si X et Y sont indépendantes, alorsfY (y=X = x) = fY (y) pour tout x tel que
fX (x) 6= 0 et fX (x=Y = y) = fX (x) pour tout y tel que fY (y) 6= 0:

Régression

Les densités conditinnelles permettent de calculer les moments conditionnelles, comme par
exemple les espérance ; on peut dé…nir notamment la fonction

x 7 ! E(Y =X = x)

24
Chapitre 1. Varaible aléatoire

que s’appelle fonction de régession, son graphe étant la courbe de régression de Y en X.


Pour une loi absolument continue, on obtient :

Z Z
f (x; y)
E(Y =X = x) = yfY (y=X = x)dy = y dy: (1.46)
R R fX (x)

Changement de variables

Théorème 1.7 Soit (X; Y )un couple aléatoire de densité fXY et une fonction de R2 sur
R: Si fX;Y est continue sur l’interieur d’un ensemble D et nulle sur son comlémentaire, si
est un bijection de D
@x @x
1 @u @v
J( )= 6= 0:
@y @y
@u @v

sur E, alors le couple aléatoire (u; v) = (X; Y ) admet pour densité la fonction fU;V dé…nie
par
1 1
fU;V (u; v) = fX;Y ( (u; v)) J( )(u; v) si (u; v) 2 E: (1.47)

Loi d’une somm

La loi de v:a:Z = X + Y se détermine par sa f:r, dé…nie par :

H(z) = P (Z z) = P (X + Y z);

qui ne peut se calculer que si l’on connaît la loi du couple (X; Y ).


Dans le cas particulier où ce couple admet une densité f , on obient.

Z Z
H(z) = f (x; y)dxdy; (1.48)
D

où le domaine d’intégration est D = f(x; y)=x+y < zg: On e¤ectue le changement de variable
suivant : 8 8
>
< >
<
u=x x=u
>
: v =x+y >
: y=v u

25
Chapitre 1. Varaible aléatoire

le jacobien de cette trensformation est :

D(x; y) 1 0
= = 1;
D(u; v) 1 1

d’où l’intégrale :

Z +1 Z z x Z +1 Z z
H(z) = dx f (x; y)dy = du f (u; v u)dv;
1 1 1 1

ce qui permet de mettre en évidence la densité de Z, soit :

Z +1
h(v) = f (u; v u) du:
1

[5]

26
Chapitre 2

Vecteurs Gaussiens

2.1 Vecteurs aléatoires

Dé…nition 2.1 On appelle vecteur aléatoire où variable aléatoire à valeurs dans Rn , une
application mesurable de ( ; T )dans (Rn ; B(Rn )):

2.1.1 Loi d’un vecteur aléatoire

Soit ( ; T; P ) un espace de probabilité, si X est un vecteur aléatoire à valeurs dans Rn , on


appelle loi de X, la probabilité PX dé…nit par :

8B 2 B(Rn ); PX (B ) = P (X 1
(B )) = P (X 2 B ): (2.1)

Dé…nition 2.2 Si X = (X1 ; :::; Xn ) est un vecteur à valeurs dans Rn . La loi de la v:a Xi
(1 i n) est appelée la ième loi marginal.

– La loi PX de X est la loi joint du d-uplet (X1 ; :::; Xn ) probabilité sur Rn :


– La loi PXi de Xi est la ième loi marginale probabilité sur R:

Dé…nition 2.3 La loi de X admet la densité f positive, intégrable sur Rn et d’intégrale 1 si

27
Chapitre 2.Vecteurs gaussiens

et seulement si
Z x1 Z xn
F (x1 ; :::; xn ) = ::: f (y1 ; :::; yd )dy1 :::dyn : (2.2)
1 1

Remarque 2.1 On a pour tout B 2 B(R)

PXi (B ) = P (Xi 2 B ) = P (X1 2 R; :::; Xi 2 B ; :::; Xn 2 R)

= P (X 2 R :::: B ::::R)

= PX (R ::: B :::R);

dans le cas ou f a pour densité f , on obtiens.

Proposition 2.1 Si le vecteur X = (X1 ; :::; Xn ) admet une densité f , alors Xi (1 i n)


a pour densité la fonction fXi donnée par

Z
fXi (u) = f (x1 ; :::; xi 1 ; u; xi+1 ; :::; xn )dx1 :::dxi 1 dxi+1 :::dxn ; (2.3)
Rn 1

on appelle cette densité la ieme densité marginale.

2.1.2 Moments d’un vecteur aléatoire

Comme pour les v:a:r, on dé…ne pour les vecteurs aléatoires des moments d’ordre 1et 2.

Dé…nition 2.4 Si X = (X1 ; :::; Xn ) un vecteur aléatoire lorsque chaque composante est une
v:a positive ou nulle, on appelle espérance (ou moyenne d’ordre 1) de X, le vecteur de Rd égal
a:
E(X) = (E(X1 ); :::; E(Xn )): (2.4)

Lorsque k X k est intégrables, chaque composante Xi est intégrable et la dé…nition a bien un


sens.
On peut calculer E(Xi ) à l’aide de la loi de Xi où à l’aid de la loi de X

Z Z Z
E(Xi ) = Xi (!)dP (!) = xi dPXi (xi ) = xi dPX (x); (2.5)
R Rn

28
Chapitre 2.Vecteurs gaussiens

le vecteur E(Xi ) décrit le comportement moyen du vecteur aléatoire X.

Proposition 2.2 Si X1 ; :::; Xn sont des v:a:r de carré intégrable, on a la formule

Xn X
n X
V ar( Xi ) = V ar(Xi ) + 2 Cov(Xi ; Xj ): (2.6)
i=1 i=1 1 i<j n

Dé…nition 2.5 Si X = (X1 ; X2 ; :::; Xn )un vecteur aléatoire à valeurs dans Rn tel que
E(k X k 2 ) < 1: On appelle matrice de dispersion de X ou (matrice de variance covariance)
la matrice n n de terme générale

( X )i;j = Cov(Xi ; Xj ): (2.7)

Cette matrice est bien dé…nie car, si la v:a k X k2 est intégrable, chaque variable Xi
est intégrable.
La matrice de dispersion est une matrice symetrique. Sa daigonale principale est formée des
variance de Xi :

Exemple 2.1 Soit X = (X1 ; X2 )un vecteur aléatoire de densité :

1 x2 2bxy + y 2
f (x; y) = p exp( ):
2 1 b2 2(1 b2 )

avec jbj < 1: Nous avons vu que X1 et X2 suivent une loi gaussinne centrée réduite. Donc
E(X1 ) = E(X2 ) = 0 et V ar(X1 ) = V ar(X2 ) = 1: Nous connaissons donc le vecteur espé-
rance de X et la diagonale principale de la matrice de dispersion de X. Il reste à calculer
Cov(X1 ; X2 ): Comme les moyennes de X1 et X2 sont nulles, on a :

Cov(X1 ; X2 ) = Cov(X2 ; X1 ) = E(X1 X2 )

29
Chapitre 2.Vecteurs gaussiens

et :

Z
1 x2 2bxy + y 2
E(X1 X2 ) = xy p exp( )dxdy
2 1 b2 2(1 b2 )
Z Z !
1 x2 1 (y bx)2
= p xe 2 p y exp dy dx
2 2 (1 b2 ) 2(1 b2 )

= b:

Car la parenthèse représente la moyenne d’une loi gaussienne de moyenne bx et de variance


1 b2 et vaut donc bx ; en factorisante par b, on reconnaît ensuite la variance d’une loi
gaussienne centrée réduite qui vaut 1. On a donc
0 1 0 1
B 0 C B 1 b C
E(X) = @ A et X =@ A
0 b 1

Si on représente les vecteurs X et E(X) par des matrices colonnes, on peut écrire matriciel-
lement la matrice X sous la forme

X = E((X E(X))(X E(X))t ):

où, étant donné un vecteur (ou un matrice) u:ut désigne sont tranposé.
L’espérance d’un vecteure aléatoire est lineaire alors que la disperion est une quntité quadra-
tique. Cela se voit, entre autre, dans les formules de la proposition suivante.

Proposition 2.3 Si X est un vecteur aléatoire à valeurs dans Rn ; tel que E(k X k2 ) < 1:
Si A est la matrice représentant une application linéaire de Rn dans Rn et si B est un vecteur
de Rn , alors le vecteur aléatoire Y = AX + B a valeur dans Rn est tel que E(k Y k2 ) < 1
et on a :

E(Y ) = AE(X) + B;

DY = ADX At :

30
Chapitre 2.Vecteurs gaussiens

Preuve. On a

81 i n ; Xi 2 L2 ( ; T; P ) ) 81 i n ; Yi 2 L2 ( ; T; P );
X
n
2
E( k Y k ) = E(Yi 2 );
i=1

est …nie puisque l’intégrale est linéaire alors on a

E(Y ) = AE(X) + B:

Calculons DY :

DY = E[(Y E(Y ))(Y E(Y ))t ]

= E[(AX + B E(AX + B))(AX + B E(AX + B))t ]

= E[A(X E(X))(X E(X))t At ]

= ADX At :

2.1.3 Fonction caractéristique

Dé…nition 2.6 Si Xest un vecteur aléatoire à valeurs dans Rn (n 1), on appelle fonction
caractéristique de X la fonction X de Rn dans C dé…nie par :

X (t) = E(exp(i ht; Xi)): (2.8)

Pn
(ht; Xi désigne le produit scalaire de t et de X dans Rn : ht; Xi = i=1 ti Xi ):

La fonction exp(i ht; Xi) est de norme égale à 1 donc est P-intégrable. Si on note PX la loi
de X, on peut écrire la fonction caractéristique X de la maniére suivente :

Z
X (t) = exp(i ht; Xi)dPX (x):
Rn

31
Chapitre 2.Vecteurs gaussiens

La fonction caractéristique de X est donc la transformée de Fourier de la loi de X. C’est


une fonction continue bornée par 1.
R
Si X admet une densité f alors X (t) = Rn
exp(i ht; Xi)f (x)dx et la fonction caractéristique
de Xest la transformée de Fourier de la fonction f .[5]

Propriété : Deux vecteurs aléatoires X et Y ont même loi si et seulement si

X = Y:

Propriété : Soit X = (X1 ; :::; Xn )t un vecteur aléatoire de dimension n. Les coordonnées de


X sont indépendantes si et seulement si la fonction caractéristique de X est le produit des
fonctions caractéristiques de ses coordonnées i.e

Y
n
t n
8t = (t1 ; :::; tn ) 2 R ; X (t) = Xk (tk ):
k=1

[2]

2.2 Vecteurs Gaussiens


2
On a déjà rencontré des v:a gaussiennes sur R ce sont les v:a de loi N (m; ):
Dans la suite on considérera également les v:a:r presque surement constantes (donc de
covariance nulle) comme gaussiennes.

2.2.1 Exemple fondamental

Considérons n variables aléatoires X1 ; :::; Xn indépendantes et de loi respectivement


2 2
N (m1 ; 1 ); :::; N (mn ; n ).
Pour i = 1; :::; n, la variable aléatoire Xi est donc de densité
!
2
1 1 x mi
fXi (x) = p exp : (2.9)
2 i 2 i

32
Chapitre 2.Vecteurs gaussiens

En raison de l’indépendance des v:a:Xi , la densité conjointe du vecteur X1 ; :::; Xn est :


!
1X
n 2
1 1 x mi
fXi ;:::;Xn (x1 ; :::; xn ) = p n n exp : (2.10)
2 Y 2 i=1 i
i
i=1

Le vecteur espérance du vecteur X = (X1 ; :::; Xd ) et sa matrice de covariance sont :

0 1 0 1
2
m1 1 0
B C B C
B C B C
B : C B : C
B C B C
B C B C
E(X) = m = B
B : C
C et X =B
B : C:
C
B C B C
B C B C
B : C B : C
@ A @ A
2
mn 0 n

Notons que la matrice X est daigonnale en raison de l’indépendance des v:a:r:(Xi )i=1;:::;n :Comme
toutes les variances i sont strictement positives, on obtient aisément la matrice inverse

0 1
1
2 0
B 1 C
B C
B : C
B C
B C
X
1
=B
B : C:
C
B C
B C
B : C
@ A
1
0 2
n

On peut alors récrire la densité conjointe du vecteur X = (X1 ; :::; Xn ) sous la forme

1 1 1
fXi ;:::;Xn (x1 ; :::; xn ) = p n p exp (x m)t 1
X (x m) ;
2 det( X) 2

33
Chapitre 2.Vecteurs gaussiens

puisque

0 10 1
1
2 0 x1 m1
B 1 CB C
B CB C
B : CB : C
B CB C
B CB C
(x m)t 1
X (x m) = (x1 m1 ; :::; xn mn ) B
B : CB
CB : C
C
B CB C
B CB C
B : CB : C
@ A@ A
1
0 2 xn mn
n

X
n
(x mi )2
= 2
:
i=1 i

Intéressons-nous maintenant à la fonction caractéristique du vecteur X:


Toujours en raison de l’indépendance, on a, pour tout t = (t1 ; :::; tn ) de Rn :

Y
n

X (t) = X1 ;:::;Xn (t1 ; :::; tn ) = Xj (tj ):


j=1

2
Or, que la fonction caractéristique d’une v:a:r:de loi N (mj ; j ) est :

1 2 2
Xj (tj ) = exp itj mj t
2 j j

d’où on tire :
!
X
n
1X 2
n
2
X1 ;:::;Xn (t) = exp i tj mj t
j=1
2 j=1 j j

1 t
= exp itt m t Xt :
2

34
Chapitre 2.Vecteurs gaussiens

Remarquons en…n que toute combinaison linéaire des Xj , pour j = 1; :::; n; est de loi normale
dans R. Une combinaison linéaire des Xj s’écrit en e¤et de manière générale sous la forme :

ht;Xi (u) = E eiuht;Xi = E eihut;Xi

= X (ut) = X (ut1 ; :::; utn )

1 2t
= exp iutt m ut Xt :
2

La fonction caractéristique de la v:a:r: ht; Xiest donc de la forme :

1 2
ht;Xi (u) = exp iua ub ;
2

avec a = tt m et b = tt X t: Par caractérisation, la v:a:r: ht; Xiest donc de loi N (tt m; tt X t):[4]

2.2.2 Caractéristique des vecteus gaussiens

Dé…nition 2.7 Un vecteur aléatoire X = (X1 ; :::; Xn ) de Rn est dit vecteur gaussien si, pour
tout t = (t1 ; :::; tn ) de Rn , la v:a:r:

X
n
t
tX= ti Xi ; (2.11)
i=1

est une v:a:r. de loi normale. Autrement dit, si toute combinaison linéaire des composantes
de X = (X1 ; :::; Xn ) est de loi normale.
Si son vecteur des espérances est m et sa matrice de covariance est X, on note
X Nn (m; X ):

Remarquons que l’on peut en particulier en déduire que toutes les composantes du vecteur X
sont des v:a:r. de loi normale. En revanche, la réciproque est fausse. Un vecteur dont toutes
les composantes sont de loi normale, n’est pas nécessairement un vecteur gaussien.
La dé…nition précédente implique également que tout sous vecteur d’un vecteur gaussien est
encore un vecteur gaussien.

35
Chapitre 2.Vecteurs gaussiens

Propriété : Soit X1 ; :::; Xn des variables aléatoires réelles indépendantes de loi normale cen-
trée réduite. Alors, le vecteur X = (X1 ; :::; Xn )t est un vecteur aléatoire gaussien.[2]

Proposition 2.4 Soit X est vecteur gaussien à valeurs dans Rn ; de moyenne


m = E(X) = (E(X1 ); :::; E(Xn ))t et de matrice de variance-covariance

= (Cov(Xi ; Xj ))i;j2f1;:::;ng = E((X E(X))(X E(X))t ): (2.12)

Soient A 2 Md;n et b 2 Rd : Alors, Y = AX + b est un vecteur gaussien à valeurs dans Rd de


moyenne Am + b et de matrice de variance-covariance A At :

Proposition 2.5 Pour qu’un vecteur X de Rn soit un vecteur gaussien il faut et il su¢ t
qu’il existe un vecteur m de Rn et une matrice symétrique et positif de dimension n n tels
que, pour tout vecteur t de Rn ; on ait :

1 t
X (t1 ; :::; tn ) = exp itt m t t : (2.13)
2

Dans ce cas, on a : E(X) = m et X = :

Preuve. Supposons que X soit un vecteur gaussien. Toute v:a:r:de la forme tt X, pour t dans
Rn , est donc de loi N (tt m; tt t):Ainsi sa fonction caractéristique est :

t 1 2t
tt X (u) = E(eiut X ) = exp iutt m ut t :
2

En posantu = 1 dans cette équation, on obtient :

t 1 t
E(eit X ) = exp itt m t t :
2

36
Chapitre 2.Vecteurs gaussiens

Ce qui est bien l’expression annoncée pour la fonction caractéristique.


Réciproquement, soit X un vecteur aléatoire dans Rn ayant pour fonction caractéristique.

1 t
X (t) = exp itt m t t = E(eiht;Xi );
2

pour tout t dans Rn . Notons maintenant Y = ht; Xi la variable aléatoire réelle dont la fonction
caractéristique est, pour tout u dans R :

t
Y (u) = E(eiuY ) = E(eiut X ) = E(eihut;Xi )
1 2t
= exp iutt m ut Xt
2
1 2
= exp iua ub ;
2

où a = tt m et b = tt X t. Par caractérisation, la v:a:r:Y est donc de loi N (tt m; tt t). On


a donc démontré que toute combinaison linéaire des composantes du vecteur X est de loi
normale, et par dé…nition il s’agit bien d’un vecteur gaussien.[4]

Remarque 2.2 On constate que la loi d’un vecteur gaussien est entièrement déterminer par
; et on note cette loi
X Nn (m; ):

Une propriété importante des vecteurs gaussiens est que l’indépendance des composantes est
équivalente à la nullité des covariances.

Remarque 2.3 Il faut prendre bien garde d’appliquer cette proposition avec toutes ses hypo-
thèses, deux v:a:r gaussiennes U et V de covariance nulle ne sont pas forcément indépendant
il faut que le couple (U; V ) soit gaussien.
Lorsque la matrice de dispersion d’un vecteur gaussien est inversible, la loi de se vecteur
admet une densité par rapport a la mesure de Lebesgue et on a la formule explicite de cette
densité.

37
Chapitre 2.Vecteurs gaussiens

2.2.3 Quelques propriétés des vecteurs gaussiens

En général, deux variables aléatoires réelles non corrélées ne sont pas nécessairement indépen-
dantes. Pour des vecteurs gaussiens, indépendance des coordonnées et absence de corrélation
sont deux notions équivalentes.
Propriétés : Soit X un vecteur gaussien dans Rn : Pour que ses composantes X1 ; :::; Xn
soient indépendantes, il faut et il su¢ t que la matrice de covariance soit diagonale.
Preuve. Il su¢ t, bien sûr, de montrer la réciproque. Supposons donc que X soit diagonale,
i.e
0 1
2
1 0 : : 0
B C
B C
B 0 : : : C
B C
B C
X =B
B : : : : : C
C:
B C
B C
B : : : 0 C
@ A
2
0 : : 0 n

Comme X est un vecteur gaussien de loi N (m; X ), chacune de ses composantes Xj , pour
2
j = 1; :::; n, est de loi normale N (mj ; j) et de fonction caractéristique :

1 2
X (t) = exp itj mj j tj ;
2

pour tout tj dans R.

38
Chapitre 2.Vecteurs gaussiens

Par ailleurs, la fonction caractéristique du vecteur X est, pour tout t dans Rn :

1 t
X (t) = exp itt m t Xt
2
!
X
n
1X
n
2
= exp i tj mj j tj
j=1
2 j=1
!
X
n
1 2
= exp itj mj j tj
j=1
2
Y
n
1 2
= exp itj mj j tj
j=1
2
Yn
= Xj (tj ):
j=1

Propriété : Soit X = (X1 ; ::::; Xn )t un vecteur aléatoire gaussien d’espérance m 2 Rn et


de matrice de covariance X. La loi de X admet une densité si et seulemet sila matrice X

est inversible et dé…nie positive (i.e. de déterminant det( X) > 0 non nul) et dans ce cas la
densité est :

1 1 1
8x 2 Rn ; fX (x) = n p exp (x m)t 1
(x m) : (2.14)
(2 ) 2 det( X) 2

Preuve. Nous démontrons uniquement la condition su¤sante.


La matrice d d symétrique positive D étant de rang d, il existe une matrice d d B telle
que :
D = BB t ;

posons
Y = B 1 (X m);

le vecteur Y est un vecteur gaussien et on a

E(Y ) = B 1 E(X m) = 0;

39
Chapitre 2.Vecteurs gaussiens

et sa matrice de dispersion est

Y = B 1 E(B 1 )t = Id;

les composantes de Y sont indépendante et sont toute de loi gaussienne centrée réduite

1 1
fY (x) = d exp kxk2 :
(2 ) 2 2

Pour trouver la loi de X on applique le théorème de transfert

E('(X)) = E('(m + By))


Z
= '(m + By)f (y)dy
Rd

par le changement de variable

x = m + By
Z
1
E('(X)) = '(x) exp (x m)t (B t ) 1 B 1 (x m) dx
Rd 2

d’où le résultat

Z
d
1 1
E('(X)) = (2 ) det(B )
2 '(x) exp (x m)t (B t ) 1 B 1 (x m) dx:
Rd 2

Remarque 2.4 analogie avec le cas uni-dimensionel (n = 1). Si X 2 R suit loi normal
2
N (m; ); alors sa densité est :

1 1
(x m 2
) ; x 2 R:
fX (x) = p e 2 (2.15)
2 2

Propriétés :
La transformée d’un vecteur gaussien de Rn par une application linéaire de Rn vers Rp est

40
Chapitre 2.Vecteurs gaussiens

encore un vecteur gaussien.


Preuve :
Soit X un vecteur gaussien de Rn , de vecteur des espérances m et de matrice de covariance

X. Soit A la matrice associée à une transformation linéaire quelconque de Rn vers Rp . La


matrice A est donc de dimension p n : Calculons la fonction caractéristique du vecteur
aléatoire Y = AX, pour tout t de Rp , on a :

= E eiht;AXi = E eihA t;X i


t
Y (t) = AX (t)

t 1 t
= X (A t) = exp itt Am tA XA
t
t :
2

Par caractérisation, le vecteur Y est donc un vecteur gaussien dans Rp de vecteur des espé-
t
rances Am et de matrice de covariance A XA , i.e

t
Y Np (Am; A X A ):

2.2.4 Le théorème central limite vectoriel

Théorème 2.1 (Le théorème central limite vectoriel) Soit (Xn )n 1 une suite de vec-
teurs aléatoires i:i:d. de Rd appartenant à L2 , d’espérance m 2 Rd et de matrice de covariance

X 2 Md (R). Notons pour tout n 1

Sn = X1 + :::: + Xn :

On a la convergence en loi

Sn nm
loi p !n !1 N (0; X ):
n

Remarque 2.5 On pourra écrire ainsi une sorte de développement limité des moyennes
empiriques de vecteurs i:i:d: sous la forme

41
Chapitre 2.Vecteurs gaussiens

Sn 1
wm+ p G
n n

où G est vecteur gaussien de loi N (0; ):[1]

2.2.5 Espérance conditionnelle et projection orthogonale

On va maintenant revenir sur la notion d’espérance conditionnelle et montrer qu’elle


se caractérise trés facilement dans le cas gaussien. Soit ( ; T; P ) un espace probabilisé, et
X : ( ; T ) ! (R; BR ) une v:a. réelle. On rappelle que l’on note par L2 ( ; T; P ) l’espace des
v:a:r:X de carré intégrable i:e telles que E(X 2 ) < +1. De plus, l’espace L2 ( ; T; P ) est un
espace de Hilbert lorsqu’il est muni du produit scalaire hX; Y i = E(XY ); et de la norme
p
quadratique associée kXk2 = E(X 2 ):
X
Une remarque trés importante est alors la suivante. Si Y
2 R2 est un vecteur gaussien
d’espérance nulle, alors l’orthogonalité de X et Y dans l’espace L2 ( ; T; P ) i.e.

hX; Y i = E(XY ) = 0;

et l’indépendance de X et Y sont des propriétés équivalentes car

Cov(X; Y ) = E(XY ) E(X)E(Y ) = E(XY ) = hX; Y i : (2.16)

Utilisons donc de nouveau le cadre de la géométrie hilbertienne pour caractériser l’espérance


conditionnelle. Soit Z = (Z1 ; :::; Zn )t 2 Rn un vecteur aléatoire gaussien d’espérance nulle,
i.e.E(Zi ) = 0 pour tout i = 1; :::; n. Introduisons la dé…nition suivante :

Dé…nition 2.8 Soient fi1 ; :::; ip g f1; ::::; ng avec p n: Le sous-espace vectoriel (fermé)
engendré par les v:a:Zi1 ; :::; Zip est

( p )
X
V ect(Zi1 ; :::; Zip ) = k Zik ; k 2R : (2.17)
k=1

On a alors les propriétés suivantes :

42
Chapitre 2.Vecteurs gaussiens

Propriété : Soit Y 2 L2 ( ; T; P )une v:a:r:telle que (Y; Zi1 ; :::; Zip ) 2 Rp+1 est un vecteur
aléatoire gaussien d’espérance nulle, l’espérance conditionnelle de Y sachant le vecteur
Ze = (Zi1 ; :::; Zip ); notée E(Y nZi1 ; :::; Zip ) ou E(Y nZ),
e est la projection orthogonale de Y sur

l’espace
( p )
X
V ect(Zi1 ; :::; Zip ) = k Z ik ; k 2R ; (2.18)
k=1

et dans le cas p = 1
Cov(Zi1 ; Y )
E(Y nZi1 ) = Zi1 :
V ar(Zi1 )

On peut alors remarquer que E(Y nZi1 ; :::; Zip ) est donc une v:a. gaussienne ce qui montre la
stabilité de la loi gaussienne par conditionnement. De plus on a également la décompo-
sition suivante lors du conditionnement par rapport à deux vecteurs gaussions indépendants.
Propriété : Soit Z 2 Rn et W 2 Rm deux vecteurs aléatoires gaussien indépendants et
d’spérance nulle. Soit Y 2 L2 ( ; T; P )une v:a:r: telle que (Y; Z 0 W 0 ) 2 Rn+m+1 est un vecteur
aléatoire gaussien d’espérance nulle. Alors, l’espérance conditionnelle de Y sachant le vecteur
Z
W
, notée E(Y nZ; W ) est la projection orthogonale de Y sur l’espace

( n )
X X
m
V ect(Z; W ) = k Zk + j Wj ; k; j 2R = V ect(Z) V ect(W ); (2.19)
k=1 j=1

et donc
E(Y nZ; W ) = E(Y nZ) + E(Y nW ):

2.2.6 Lois conditionnelles et prédiction

Etudions maintenant les lois conditionnelles de certaines coordonnées d’un vecteur gaussien
sachant la valeur des autres coordonnées. Soit Z un vecteur aléatoire gaussien de dimension
n divisé en deux blocs de coordonnées X et Y de dimensions nX 1 et nY 1 telles que
X
n = nX + nY , i.e.Z = Y
: L’espérance de Z s’écrit alors sous la forme

E(X)
E(Z) = ;
E(Y )

43
Chapitre 2.Vecteurs gaussiens

et la matrice de covariance Z de Z peut se décomposer de la façon suivante


0 1
B X 0 C
Z =@ A;
0 Y

0 = E (X E(X))(Y E(Y ))t : (2.20)

La notion de densité conditionnelle vue précédemment pour les couples de variables aléatoires
réelles peut être étendue au cas des vecteurs aléatoires. La densité conditionnelle de Y sachant
X = x est alors la fonction
fZ (x; y)
fYX=x (y) = ; (2.21)
fX (x)

et on a le résultat suivant.
X
Propriété : Supposons que Z = Y
soit un vecteur gaussien, et que la matrice de covariance

X de X est dé…nie positive. Soit x 2 RnX La loi contionnelle de Y sachant X = x est alors
une loi gausienne d’espérance

t 1
E(Y nX = x) = E(Y ) + 0 X (x E(X));

et de matrice de covariance
X=x t 1
Y = Y 0 X 0;

et donc

1 1 1 1
8y 2 RnY ; fYX=x (y) = nY p exp (y mX=x
Y )t X=x
Y (y mX=x
Y ) :
(2 ) 2 (det( X=x
Y )) 2
(2.22)
1
avec mX=x
Y = E(Y ) + t
0 X (x E(X)):[2]

44
Bibliographie

[1] Benoit, Mselati et Benaych-Georges, Introduction aux Probabilités et aux Statistiques,


3 octobre 2004.

[2] Bigot, Jérémie. Notes de cours de Probabilités, 18 mars 2014.

[3] Chesneau,Christophe. Probabiliés et variables aléatoies discrètes.

[4] Dauxois.Jean-Yves Cours de Probabilités. Septembre 2011.

[5] D. Foata-A. Fuchs. Calcul des probabilités. Dunod 2003.

[6] Lecoutre, Jean-Pierre. Statistique et probabilités Cours et exercices corrigés. Dunod,


2016.

[7] Perryt, A. Cours de probabilités et statistiques, 2010.

[8] Popier Alexandre,Wintenberger Olivier. Introduction au calcul des probabilités, 2006,


2007.

[9] Saporta, Gilbert. Probabilités, analyse des données et statistique. Editions Technip, 2006

[10] Saussereau, Bruno. Cours de théorie des probabilités avec exercices corrigés et devoirs,
2013, 2014.

[11] Smolarz, André. Modélisation probabiliste pour l’ingénieur. 2009.

[12] Suquet, Charles. Introduction au Calcul des Probabilités, 2002, 2003.

[13] Ycart,Bernard, Modélées probabilistes simulation de variables aléatoies.

45
Annexe A : Abréviations et Notations

Les di¤érentes abréviations et notations utilisées tout au long de ce mémoire sont expliquées
ci-dessous.
: événement certain.
: ensemble vide.
A : événement contraire à A:
P (A) : probabilité de A:
T : tribu des événement.
( ;T) : espace probabilisable.
( ; T; P ) : espace probabilisé.
PX : loi de probabilité de X:
v:a : variable aléatoire.
F (X) : fonction de répartition.de X
E(X) : espérance mathématique du X.
V (X) : la variance de X:
: l’écart-type de X:
Cov(X; Y ) : covariance de X et Y:

X : co¢ cient de corrélation.


(X; Y ) : matrice de covariance.

X : la fonction caractéristique de X:
GX (s) : fonction génératrice.
Pij : loi joint du couple (X; Y ).
Pi : loi marginale de X:

46
Annexe B : Abréviations et Notations

Pij : loi de probabilité conjointe.


Pi : loi marginale.
Cov(X; Y ) : la covariance entre deux variable aléatoires X et Y:
ssi : si et seulement si.
fX;Y : densité du couple (X; Y ):
N (m; ) : la loi normale de paramètre m et :
N (0; 1) : la loi normale centrée réduite.
f:r : fonction de répartition.
PXi : la iéme loi marginale probabilité sur R:
fXi : la iéme densité marginale.
Id : matrice identité.
iid : indépandante indentiquement distribué.

47

Vous aimerez peut-être aussi