Vecteurs Gaussiens et Convergences Probabilistes
Vecteurs Gaussiens et Convergences Probabilistes
Matrice de variances-covariances
Vecteurs Gaussiens
Fonction caractéristique
Convergences et approximations
Approximation d’une fonction de répartition
Exemple sous logiciel R
Théorème de la limite centrale
Plan :
1 Matrice de variances-covariances
2 Vecteurs Gaussiens
3 Fonction caractéristique
4 Convergences et approximations
5 Approximation d’une fonction de répartition
6 Exemple sous logiciel R
7 Théorème de la limite centrale
Plan :
1 Matrice de variances-covariances
2 Vecteurs Gaussiens
3 Fonction caractéristique
4 Convergences et approximations
5 Approximation d’une fonction de répartition
6 Exemple sous logiciel R
7 Théorème de la limite centrale
Matrice de variances-covariances
Définition
Soit X et Y deux v.a dans L2 (Ω, A, P) , (c-à-d : X et Y sont de carré
intégrable), alors on définit la covariance entre X et Y par la formule :
Cov (X , Y ) = E (X − E (X ))(Y − E (Y ) .
Matrice de variances-covariances
Propriétés
Cov (X , X ) = V (X ).
Cov (X , Y ) = Cov (Y , X ).
Formule de Koenig : Cov (X , Y ) = E (XY ) − E (X )E (Y ).
Cov (aX , bY ) = abCov (X , Y ).
V (X + Y ) = V (X ) + V (Y ) + 2Cov (X , Y ).
Si X et Y sont indépendantes alors Cov (X , Y ) = 0.
Matrice de variances-covariances
Preuve
Cov (X , X ) = E (X − E (X ))2 = V (X ).
Trivial.
h i
Cov (X , Y ) = E (X − E (X ))(Y − E (Y )) =
h i
E XY − XE (Y ) − YE (X ) + E (X )E (Y ))
= E (XY )−E (X )E (Y )−E (Y )E (X )+E (X )E (Y )) = E (XY )−E (X )E (Y ).
D’après la formule de Koenig, on a
Cov (aX , bY ) = E (aXbY ) − E (aX )E (bY )
= abE (XY ) − abE (X )E (Y ) = abCov (X , Y ).
Matrice de variances-covariances
V (X + Y ) = E (X + Y )2 − (E (X ) + E (Y ))2
=
[E (X 2 ) + E (Y 2 ) + 2E (XY )] − [(E (X ))2 + (E (Y ))2 − 2E (X )E (Y )]
=
[E (X 2 ) − (E (X ))2 ] + [E (Y 2 ) − (E (Y ))2 ] + 2[E (XY ) − E (X )E (Y )]
= V (X ) + V (Y ) + 2Cov (X , Y ).
Il suffit de voir que si X et Y sont indépendantes alors
E (XY ) = E (X )E (Y ).
Matrice de variances-covariances
Proposition
Si (X , Y ) est un couple discret de loi P(X = x, Y = y ) , alors
XX
Cov (X , Y ) = (x − E (X ))(y − E (Y ))P(X = x, Y = y ).
x∈E y ∈F
Matrice de variances-covariances
Définition
On appelle espérance mathématique du vecteur aléatoire
X = (X1 , ..., Xn ) le vecteur E (X ) de Rn de composantes
E (X1 ), ..., E (Xn ).
Soit X = (X1 , ..., Xn ) un vecteur aléatoire de composantes de carré
intégrable. On appelle matrice de variances-covariances de X , la matrice
carrée, notée ΓX , d’ordre n et de terme général
Matrice de variances-covariances
Remarque
La matrice ΓX est forcément symétrique et ses termes diagonaux sont les
variances des composantes des vecteurs : V (Xi ) = Cov (Xi , Xi ), 1 ≤ i, j ≤ n.
Exemple
Pour le vecteur aléatoire X = (X1 , X2 , X3 ), on a
Ñ é
V (X1 ) Cov (X1 , X2 ) Cov (X1 , X3 )
ΓX = Cov (X2 , X1 ) V (X2 ) Cov (X2 , X3 )
Cov (X3 , X1 ) Cov (X3 , X2 ) V (X3 )
Plan :
1 Matrice de variances-covariances
2 Vecteurs Gaussiens
3 Fonction caractéristique
4 Convergences et approximations
5 Approximation d’une fonction de répartition
6 Exemple sous logiciel R
7 Théorème de la limite centrale
Vecteurs Gaussiens
Définition
On dit que le vecteur X = (X1 , ..., Xn ) est gaussien ou normal dans Rn si
toute combinaison linéaire des composantes du vecteur X est une v.a
normale dans R, c-à-d pour tout α = (α1 , ..., αn ) ∈ Rn , la v.a
Z = α0 X = α1 X + ... + αn Xn
Vecteurs Gaussiens
Proposition
Si X = (X1 , ..., Xn ) est un vecteur gaussien de moyenne m et de matrice
de variances-covariances ΓX , alors Z = α0 X suit une loi normale
N (α0 m, α0 ΓX α).
La densité du vecteur gaussien X = (X1 , ..., Xn ) est donnée par :
Å iã
1 1h
fX (x) = np exp − (x − m)0 ΓX−1 (x − m) ,
(2π) 2 det(ΓX ) 2
Vecteurs Gaussiens
Preuve
Nous montrons seulement le premier point.
Par définition du vecteur gaussien, Z = α0 X suit une loi normale dans R
de paramètres :
E α0 X = α0 E (X )
X n
n X
V α0 X = αi αj Cov (Xi , Xj ) = α0 ΓX α.
i=1 j=1
Vecteurs Gaussiens
Proposition
Si X est un vecteur gaussien alors tous les v.a X1 ,...,Xn suivent des lois
normales dans R.
Inversement, si X1 ,...,Xn sont indépendantes et suivent des lois
normales dans R, alors X = (X1 , ..., Xn ) est un vecteur gaussien. Sa
matrice de variances-covariances est diagonale, c-à-d :
aij = Cov (Xi , Xj ) = 0 pour tous i 6= j.
Vecteurs Gaussiens
Exemple
Si X et Y sont deux v.a i.i.d de loi N (0, 1) alors E (X ) = E (Y ) = 0 et
V (X ) = V (Y ) = 1 et par suite (X , Y ) est un vecteur gaussien de moyenne
m = (0, 0) et de matrice de variances-covariances :
Å ã
1 0
ΓX = I2 =
0 1
1 x2 + y2
f(X ,Y ) (x, y ) = exp − = fX (x)fY (y ).
2π 2
Plan :
1 Matrice de variances-covariances
2 Vecteurs Gaussiens
3 Fonction caractéristique
4 Convergences et approximations
5 Approximation d’une fonction de répartition
6 Exemple sous logiciel R
7 Théorème de la limite centrale
Fonction caractéristique
Définition
Soit X = (X1 , ....., Xn ) un vecteur aléatoire à valeurs dans Rn . La fonction
caractéristique de X est définie pour tout t = (t1 , ....., tn ) ∈ Rn par :
0
ϕX (t) = E (e it X ) = E (e i(t1 X1 +.....+tn Xn ) ).
Fonction caractéristique
Propriétés
1 Si on connaît la fonction caractéristique du vecteur X , on peut en
déduire la fonction caractéristique de chaque composante Xi . On a :
Fonction caractéristique
Proposition
X = (X1 , ..., Xn ) est vecteur gaussien dans Rn ssi il existe un vecteur m de Rn
et une matrice ΓX symétrique et positive d’ordre n tels que sa fonction
caractéristique est donnée pour tout t ∈ Rn par :
n 1 o
ϕX (t) = exp it 0 m − t 0 ΓX t .
2
Dans ce cas E (X ) = m et ΓX est la matrice de variances-covariances de X .
Fonction caractéristique
Preuve
Sens direct :
Si X = (X1 , ..., Xn ) est un vecteur gaussien dans Rn , alors t 0 X est un v.a
normale dans R, de moyenne t 0 m et de variance t 0 ΓX t. Par suite : pour tout
u ∈ R, on a
0 n 1 o
ϕt 0 X (u) = E e iut X = exp iut 0 m − u 2 t 0 ΓX t .
2
Prenons u = 1, on trouve
0 n 1 o
ϕX (t) = E e it X = exp it 0 m − t 0 ΓX t .
2
Fonction caractéristique
Sens inverse :
Supposons maintenant que X = (X1 , ..., Xn ) est un vecteur aléatoire dans Rn
de fonction caractéristique :
n 1 o
ϕX (t) = exp it 0 m − t 0 ΓX t .
2
Soit Y = t 0 X , alors
0 n 1 o n 1 o
ϕY (u) = E e iuY = E e iut X = exp it 0 m − u 2 t 0 ΓX t = exp ia − u 2 b ,
2 2
avec a = t 0 m et b = t 0 ΓX t. Par caractérisation, la v.a Y qui une combinaison
linéaire de X est de loi normale dans R. Ceci implique que X = (X1 , ..., Xn )
est un vecteur gaussien dans Rn .
Vecteurs Gaussiens
Corollaire
Les composantes X1 ,...,Xn du vecteur gaussien X sont indépendantes ssi la
matrice de variances-covariances de X est diagonale.
Preuve
Il suffit, bien sûr, de montrer la réciproque. Supposons donc que ΓX soit
diagonale telle que V (Xi ) = σi2 , alors sa fonction caractéristique est de la
forme : ( n ) n
X 1 2 2 Y
ϕX (t) = exp iti mi − ti σi = ϕXi (ti ).
i=1
2 i=1
D’où le résultat.
Conséquence
Si (X , Y ) est un vecteur gaussien, alors X ⊥ Y ssi Cov (X , Y ) = 0.
Plan :
1 Matrice de variances-covariances
2 Vecteurs Gaussiens
3 Fonction caractéristique
4 Convergences et approximations
5 Approximation d’une fonction de répartition
6 Exemple sous logiciel R
7 Théorème de la limite centrale
Introduction
Convergences et approximations
Soit (Xn )n une suite de v.a définies sur un espace probabilisé (Ω, F, P) et X
une v.a définie sur le même espace.
Les modes de convergence les plus utilisés en probabilité sont les suivants :
la convergence presque sûre notée p.s,
la convergence en probabilité notée p,
la convergence en moyenne quadratique (ou dans L2 ) notée m.q,
la convergence dans L1 ,
la convergence en loi notée L.
Convergences et approximations
Définition
Lorsque n → +∞, on dit que :
n o
p.s
1 Xn → X si P ω, lim Xn (ω) = X (ω) = 1.
n→+∞
p
2 Xn → X si ∀ > 0, lim P(|Xn − X | > ) = 0.
n→+∞
mq
3 Xn → X si (Xn )n et X sont de carré intégrables et
lim E (|Xn − X |2 ) = 0.
n→+∞
L1
4 Xn → X si (Xn )n et X sont intégrables et lim E (|Xn − X |) = 0.
n→+∞
L
5 Xn → X si pour toute f continue et bornée, lim E (f (Xn )) = E (f (X )).
n→+∞
Convergences et approximations
Exemple : √
Considérons la suite de v.a (Xn )n où chaque Xn prenant deux valeurs 0 et n
avec les probabilités suivantes :
1 √ 1
P(Xn = 0) = 1 − P(Xn = n) = .
n n
Alors lorsque n → +∞, on a :
L1 1
1 Xn → 0, car E |Xn | = √
n
−→ 0.
p
2 Xn → 0 car d’après l’inégalité de Markov on a :
E |Xn | 1
P(|Xn | > ) ≤ = √ −→ 0.
n
Convergences et approximations
Proposition
On note (FXn )n la suite des fonctions de répartitions de (Xn )n et FX de X .
L
Xn → X ssi lim FXn (x) = FX (x) en tout point de continuité x de F.
n→+∞
Convergences et approximations
Remarque
L
Dans le cas des v.a.d : Xn → X ssi lim P(Xn = x) = P(X = x).
n→+∞
L
Dans le cas des v.a à densités : Xn → X ssi lim fXn (x) = fX (x).
n→+∞
Convergences et approximations
Exemple :
Considérons la suite de v.a (Xn )n où chaque Xn ait pour loi :
1
P Xn = 2 + = 1 c-à-d PXn = δ2+ 1 .
n n
1 L
Puisque 2 + n
converge vers 2, alors : Xn → X où X est de loi δ2 et on a
lim FXn (x) = FX (x) en tout point x ∈ R \ {2}.
n→+∞
Théorème de Slutsky
Théorème de Slutsky
L
Si Xn → X et g est une application continue de R vers R, alors
L
g (Xn ) → g (X ).
Convergences et approximations
Proposition
1 Si la suite (Xn )n converge p.s vers X , alors il converge en probabilité
vers X .
2 Inversement, si la suite (Xn )n converge en probabilité vers X , alors il
existe une sous suite (Xnk )k qui converge p.s vers X .
Convergences et approximations
Proposition :
Convergences et approximations
Proposition
Soit (Xn )n une suite de v.a de loi B(n, pn ) telles que npn → λ > 0, lorsque
L
n → +∞, alors Xn → X qui suit une loi de poisson P(λ).
Convergences et approximations
Preuve
Il suffit de montrer que lorsque n → +∞ :
it
ϕXn (t) −→ e λ(e −1) = ϕX (t), ∀ t ∈ R.
Ç ån
it
n npn (1 − e it )
ϕXn (t) = 1 − pn + pn e = 1−
n
npn (1−e it )
n ln 1− it
−1)
=e n
−→ e λ(e = ϕX (t).
Convergences et approximations
Exemple
Soit X une v.a de loi B(100; 0, 05). Nous allons calculer : P(X = 2).
Calcul exact :
2
P(X = 2) = C100 (0.05)2 (1 − 0.05)100−2 ≈ 0, 0812.
52 −5
P(X = 2) ≈ e ≈ 0, 0843.
2!
Inégalité de Bienaymé-Tchebychev
Soit X une v.a réelle définie sur un espace probabilisé (Ω, F, P) possédant
une espérance E (X ) et une variance V (X ), alors
V (X )
∀ > 0, P |X − E (X )| ≥ ≤ .
2
Théorème
Soit (Xn )n une suite de v.a i.i.d et définies sur un espace probabilisé (Ω, F, P),
possédant une espérance m = E (X1 ) et une variance σ 2 = V (X1 ). On pose :
n
p
Xn = 1n
P
Xi . Alors Xn → m, c-à-d ∀ > 0 lim P(|Xn − m| ≥ ) = 0.
i=1 n→+∞
Preuve
n
1
E (Xi ) = 1n nm = m et comme les v.a sont indépendants,
P
On a E (Xn ) = n
i=1
n
σ2
1
V (Xi ) = 1n nσ 2 =
P
on trouve que V (Xn ) = n2 n
.
i=1
D’après l’inégalité de Bienaymé-Tchebychev, on a
σ2
P |Xn − m| ≥ ≤ 2 .
n
Donc par encadrement de limits, lim P(|Xn − m| ≥ ) = 0.
n→+∞
Convergences et approximations
Exemple
On considère une suite d’épreuves indépendantes, et un événement A, de
probabilité p, qui peut ou non se réaliser au cours d’une des épreuves. On
note Xi la v.a qui vaut 1 si A s’est réalisé à la i-ème épreuve et 0 sinon. Dans
ce cas Xn représente la fréquence de réalisation de l’événement A au cours
des n premières épreuves. La loi faible des grands nombres nous dit que cette
fréquence (tend) vers p. Cela justifie a posteriori la façon d’introduire la
notion de probabilité comme étant la limite de la fréquence d’apparition de
l’événement donné.
Théorème
Soit (Xn )n une suite de v.a réelles i.i.d définies sur un espace probabilisé
(Ω, F, P), possédant une espérance m = E (X1 ) et une variance σ 2 = V (X1 ).
Alors
p.s
Xn → m.
Plan :
1 Matrice de variances-covariances
2 Vecteurs Gaussiens
3 Fonction caractéristique
4 Convergences et approximations
5 Approximation d’une fonction de répartition
6 Exemple sous logiciel R
7 Théorème de la limite centrale
Proposition
On définit pour n v.a i.i.d X1 , ..., Xn , la fonction de répartition empirique Fn
définie pour tout x ∈ R par :
n
1X
Fn (x) = 1(Xi ≤x) .
n i=1
p.s
Alors, lorsque n tend vers l’infini, Fn (x) → F (x) qui est la fonction de
répartition de X1 .
Preuve
Ce résultat est une simple application de la lois forte des grands nombre, il
suffit de prendre : Yi = 1(Xi ≤x) , par suite
m = E (Y1 ) = E (1(X1 ≤x) ) = P(X1 ≤ x) = F (x).
Plan :
1 Matrice de variances-covariances
2 Vecteurs Gaussiens
3 Fonction caractéristique
4 Convergences et approximations
5 Approximation d’une fonction de répartition
6 Exemple sous logiciel R
7 Théorème de la limite centrale
2.6
2.4
2.2
1:5000
Plan :
1 Matrice de variances-covariances
2 Vecteurs Gaussiens
3 Fonction caractéristique
4 Convergences et approximations
5 Approximation d’une fonction de répartition
6 Exemple sous logiciel R
7 Théorème de la limite centrale
Théorème de de Moivre-Laplace
Soit (Xn )n une suite de v.a de loi B(n, p). Alors
Xn − np L
Zn = p → X ∼ N (0, 1).
np(1 − p)
Preuve
Ce résultat est une simple application du théorème de la limite centrale. Il
n
P
suffit de prendre : Xn = Yi la somme de n v.a i.i.d de loi B(p). On a :
i=1
E (Y1 ) = p, V (Y1 ) = p(1 − p), donc Xn = nYn , E (Xn ) = np et
V (Xn ) = np(1 − p).