0% ont trouvé ce document utile (0 vote)
57 vues4 pages

Exercices Vecteurs Gaussiens 3

Transféré par

jeremie zehou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
57 vues4 pages

Exercices Vecteurs Gaussiens 3

Transféré par

jeremie zehou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ISFA Lyon 2018 - 19

L3 Actuariat [email protected]
Probabilités Avancées CC - Correction [email protected]

1 Vecteurs gaussiens Pour la covariance, on a :

Exercice 1 Cov(Y1 , Y2 ) =Cov(2X1 + 2X2 , X1 − 2X3 )


1. Une matrice est une matrice de covariance si et seulement si elle est sy- =2Var(X1 ) − 4Cov(X1 , X3 ) + 2Cov(X2 , X1 ) − 4Cov(X2 , X3 )
métrique et semi-définie positive. On a que t Σ = Σ donc la matrice est =0.
symétrique. Pour montrer qu’elle est semi-définie positive, on va calculer les
mineurs principaux. On a donc que la matrice de covariance Σ0 de Y est donnée par :
 
8 0
4 −2 0 Σ0 = .
4 −2 0 12
4 = 4, = 4 et −2 2 1 = 4.
−2 2
0 1 2 4. Le vecteur aléatoire (Y1 , Y2 ) est une vecteur aléatoire et Cov(Y1 , Y2 ) = 0
donc Y1 et Y2 sont indépendants.
Tous les mineurs sont strictement positifs donc la matrice Σ est définie posi-
5. Le vecteur gaussien X est centré donc le vecteur gaussien Y est également
tive, en particulier elle est semi-définie positive, de plus elle est symétrique,
centré. Le vecteur aléatoire Y est un vecteur gaussien centré de matrice de
on en déduit que c’est une matrice de covariance.
covariance Σ0 donc sa fonction caractéristique ϕY : R2 7→ C est donné par :
2. Un vecteur aléatoire est un vecteur gaussien si et seulement si toute com-   
  8 0 u1 
binaison linéaire de ce vecteur suit une loi normale. Soit α1 , α2 ∈ R deux − 12 u1 u2 
0 12 u2
réels. On a : ϕY (u1 , u2 ) =e
1 2 2
=e− 2 (8u1 +12u2 )
α1 Y1 + α2 Y2 =α1 (2X1 + 2X2 ) + α2 (X1 − 2X3 )
2 2
=(2α1 + α2 )X1 + 2α1 X2 − 2α2 X3 . =e−4u1 −6u2

Toute combinaison linéaire de Y est donc une combinaison linéaire de X or 2 Convergence de suites de variables aléatoires
X est un vecteur gaussien donc toute combinaison linéaire de X suit une
loi normale. On en conclut que toute combinaison linéaire de Y suit une loi Exercice 2 (Minimum

d’exponentielles)
normale donc Y est un vecteur gaussien. 1. Soit n ∈ N et x ∈ R. Soit Fn la fonction de répartition de Yn , on a :

3. Pour les variances, on a : Fn (x) = P(Yn ≤ x) = 1 − P(Yn > x) = 1 − P(X1 > x, . . . , Xn > x).

Les (Xi )i∈N∗ étant iid, on a :


Var(Y1 ) =Var(2X1 + 2X2 ) = 4Var(X1 ) + 8Cov(X1 , X2 ) + 4Var(X2 ) = 8,
Var(Y2 ) =Var(X1 − 2X3 ) = Var(X1 ) − 4Cov(X1 , X3 ) + 4Var(X3 ) = 12. 1 − P(X1 > x, . . . , Xn > x) = 1 − P(X1 > x)n .

1
Si x < 0, P(X1 > x) = 1 et donc Fn (x) = 0. Exercice 3 (Convergence d’une suite de variable aléatoire)
Si x ≥ 0, on a : 1. La fonction fXn définit une densité sur R si et seulement si elle est positive
+∞
Z et d’intégrale 1. La fonction est clairement positive, il reste juste à prouver
P(X1 > x) = e−t dt = e−x . qu’elle est d’intégrale 1. On a :
t=x
Z Z∞  +∞
−x
On trouve alors Fn (x) = 1 − (e )n = 1 − e −nx
. On a donc que la fonction n n 1
1 (x)dx = = − = 1.
de répartition de Yn est donnée par : (1 + nx)2 [0,+∞[ (1 + nx)2 1 + nx 0
x∈R x=0

Fn (x) = 1 − e−nx 1[0,∞[ (x).



On en conclut que fXn définit bien une densité sur R.
On reconnaît la fonction de répartition d’une exponentielle de paramètre n. 2. Les variables aléatoires Xn sont positives, on a donc pour tout ε > 0 :
2. Les variables aléatoires (Xi )i∈N∗ sont positives donc les variables aléatoires Z∞  +∞
(Yi )i∈N∗ sont aussi positives. On en déduit que pour tout ε > 0 : n 1 1
P (|Xn − 0| > ε) = P (Xn > ε) = 2
= − = .
(1 + nx) 1 + nx ε 1 + nε
−nε
P(|Yn | ≥ ) = P(Yn ≥ ε) = e . x=ε

Puisque ε > 0 alors |e−ε | < 1 donc la série géométrique de terme générale Pour tout ε > 0, on a que :
e−nε est sommable. On a donc :
1
→0
X X e−ε 1 + nε
P(|Yn | ≥ ε) = e−nε = < ∞.
1 − e−ε
n≥1 n≥1 donc P (|Xn − 0| > ε) → 0 donc Xn converge en probabilité vers 0.
Par le lemme de Borel-Cantelli, on en conclut que Yn converge p.s vers 0. 3. Les (Xn )n∈N∗ étant indépendant, on peut appliquer le lemme de Borel-
Cantelli qui nous dit que la suite (Xn )n∈N∗ converge presque sûrement vers
0 si et seulement si pour tout ε > 0 :
X
P (|Xn − 0| > ε) < ∞.
n≥1

On a :
X X 1
P (|Xn − 0| > ε) = .
1 + nε
n≥1 n≥1

2
1 1 On peut maintenant appliquer l’inégalité de Tchebychev (ce qui revient à
De plus on sait que pour tout ε > 0, ∼ et la série de terme
1 + nε nε montrer la convergence dans L2 ). Pour tout ε > 0, on a :
1
générale diverge donc

     
Sn Sn Sn
P − 0 ≥ ε =P −E ≥ε
nα nα nα
X 1
= +∞. Var nSαn

1 + nε ≤
n≥1
ε2
n1−2α
On en conclut, par le lemme de Borel-Cantelli, que la suite (Xn )n∈N∗ ne = 2 .
ε
converge pas presque sûrement vers 0.
1
Si α > alors n1−2α → 0 et donc pour tout ε > 0
Exercice 4 (Convergence et marche aléatoire simple) 2
1. C’est la loi des grands nombres qui donne le résultat pour n = 1. Pour tout
 
Sn
|Sn | |Sn | P −0 ≥ε →0
α ≥ 1, pour tout n ∈ N∗ , on a que α ≤ . Par conséquent, si presque nα
n n
Sn Sn Sn
sûrement → 0 alors presque sûrement α → 0. et donc converge en probabilité vers 0.
n n nα
1 3. Soit λ ≥ 0. On a, pour tout i ∈ N∗ :
2. Soit α > . On va appliquer l’inégalité de Tchebychev. On a :
2 1 1
E(eλXi ) = P(Xi = 1)eλ + P(Xi = −1)e−λ = eλ + e−λ = cosh(λ).
  n
! n n 2 2
Sn 1 1 X 1 X 1 X
E = α E(Sn ) = α E Xi = α E(Xi ) = α 0 = 0. Pour tout n ∈ N∗ , on a :
nα n n n n
i=1 i=1 i=1
n
P !
  λ Xi
Pour la variance, on utilise le fait que les Xi sont indépendants, on a donc : λSn
E e =E e i=1

n n n n
! n
X X X X Y  
Var Xi = Var (Xi ) = E(Xi2 ) − E(Xi )2 = 1−0=n = E eλXi les (Xi )i∈N∗ étant indépendants
i=1 i=1 i=1 i=1 i=1
n
Y
On a donc = cosh(λ)
 
Sn 1 n i=1
Var = 2α Var (Sn ) = 2α = n1−2α .
nα n n =cosh(λ)n .

3
x2
4. (a) Pour tout x ≥ 0, pour tout λ > 0 et pour tout n ∈ N∗ , Sn ≥ x si et Si x = 0, on a e− 2n = 1 donc
seulement si λSn ≥ λx donc
x2
P (Sn ≥ x) ≤ e− 2n .
 
P (Sn ≥ x) = P eλSn ≥ eλx .
x2
Attention, cet argument est faux pour λ = 0. On en conclut que pour tout x ≥ 0, P (Sn ≥ x) ≤ e− 2n .
Par l’inégalité de Markov, on a : 1
5. On fixe α > . On commence par remarquer que la loi des Xi étant symé-
 E eλSn  2
trique pour tout i ∈ N∗ , la loi de Sn est symétrique pour tout n ∈ N∗ . On

λSn λx
P e ≥e ≤
eλx en déduit que pour tout x ≥ 0
=cosh(λ)n e−λx d’après la question précédente
λ2
−λx
P (Sn ≤ −x) = P (Sn ≥ x) .
≤en 2 d’après l’indication.
  λ2
On a donc que pour tout x > 0 :
On a bien P (Sn ≥ x) = P eλSn ≥ eλx ≤ en 2 −λx pour tout x ≥ 0 et
x2
pour tout λ > 0. P (|Sn | ≥ x) = P (Sn ≤ −x) + P (Sn ≥ x) = 2P (Sn ≥ x) ≤ 2e− 2n .
(b) Soit x > 0 et n ∈ N∗ . Soit f la fonction de R+∗ dans R définie par
Pour tout ε > 0, on a donc :
λ2
f : λ → n − λx. 
Sn
 2 n2α 2 2α−1
2 α − ε 2n −ε n2
P − 0 ≥ ε = P (|Sn | ≥ εn ) ≤ 2e = 2e .
La fonction f est dérivable et on a : nα

f 0 (λ) = nλ − x. 1 ε2 n2α−1
Comme α > , 2α − 1 > 0 donc la série de terme générale 2e− 2 est
i xi hx 2
sommable donc pour tout ε > 0
h
On en déduit que f est décroissante sur 0, et croissante sur ,∞
n n
x X  Sn 
donc f admet un minimum en et on a : P − 0 ≥ ε < +∞.
n nα
n≥1
x x2 x x2 x2 x2
f =n 2 −x = − =− .
n 2n n 2n n 2n Sn
Par le lemme de Borel-Cantelli, → 0 presque sûrement.
x nα
Pour x > 0, d’après la question précédente, en prenant λ = , on
n
trouve :
x2
P (Sn ≥ x) ≤ e− 2n .

Vous aimerez peut-être aussi