0% ont trouvé ce document utile (0 vote)
33 vues13 pages

Correction 1

Le document présente une correction d'un TD de statistique, abordant divers types de convergence des suites de variables aléatoires, notamment en probabilité, en loi, et presque sûrement. Il traite également des propriétés des fonctions de répartition et de la convergence des lois associées, ainsi que des exemples illustrant ces concepts. Enfin, il démontre que certaines lois admettent une densité par rapport à la mesure de Lebesgue.

Transféré par

20101995rahi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
33 vues13 pages

Correction 1

Le document présente une correction d'un TD de statistique, abordant divers types de convergence des suites de variables aléatoires, notamment en probabilité, en loi, et presque sûrement. Il traite également des propriétés des fonctions de répartition et de la convergence des lois associées, ainsi que des exemples illustrant ces concepts. Enfin, il démontre que certaines lois admettent une densité par rapport à la mesure de Lebesgue.

Transféré par

20101995rahi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Sorbonne Université, Master 1 MU4MA015, Statistique, 2024-2025

Cours : A. Guyader TD : C. Dion-Blanc, A. Godichon, A. Guyader

Correction du TD 1

Exercice 1
1. On dit que (Xn )n≥1 converge vers X (l’espace sous-jacent étant (Ω, F, P)) :
P
— en probabilité (Xn → X), si ∀ε > 0 on a P(|Xn − X| ≥ ε) → 0.
n→∞
L2
— en norme L2 , ou en moyenne quadratique, (Xn → X), si E[(Xn − X)2 ] → 0.
n→∞
d L
— en loi (Xn → X ou Xn → X ou Xn ⇝ X), si pour toute fonction continue bornée φ de R dans
R, limn E [φ(Xn )] = E [φ(X)]. Il existe d’autres caractérisations de la convergence en loi, par
exemple : Fn (x) → F (x), pour tout x tel que F est continue en x ; Fn désignant la fonction de
n→∞
répartition (f.d.r.) de la v.a. Xn et F désignant celle de la v.a. X.
p.s.
— presque sûrement (Xn → X), si ∃Ω0 ∈ F, t.q. P(Ω0 ) = 1 et ∀ω ∈ Ω0 , on a Xn (ω) → X(ω).
n→∞
2. En utilisant le corollaire de l’inégalité de Markov avec la fonction carrée (croissante et positive sur
R+ ), on obtient pour tout ε > 0
E|Xn − X|2
P(|Xn − X| ≥ ε) ≤ −→ 0
ε2 n→+∞

qui tend vers 0 par convergence L2 . On en déduit la convergence en probabilité.


3. Si (Xn )n converge en probabilité vers a alors (Xn )n converge en loi vers a, c’est-à-dire que pour tout
fonction f continue bornée on a Ef (Xn ) → Ef (a) = f (a).
n+∞
En particulier, pour toute fonction f continue bornée, h étant continue, f ◦ h est continue bornée.
Pour toute fonction f continue bornée, on a donc E [f (h(Xn ))] → E [f (h(a))] = f (h(a)), ce qui
n+∞
implique que h(Xn ) converge en loi vers h(a).
De plus, comme la convergence en loi vers une constante implique la convergence en probabilité vers
cette constante, nous obtenons finalement que (h(Xn ))n converge en probabilité vers h(a).
En fait, les convergences p.s., en probabilité et en loi « passent » toutes à la continuité (avec une
limite pas forcément constante p.s. qui plus est) : ce résultat est connu en anglais sous le nom de
Continuous Mapping Theorem.
4. (a) On a
Z Z
E(X12 ) = x2 f (x)dx = 2x3 exp(−x2 )dx
R R+
Z
= u exp(−u)du = 1,
R+

en posant u = x2 et en reconnaissant par exemple dans la dernière expression l’espérance d’une


loi exponentielle de paramètre 1.
(b) On vient de montrer que X12 ∈ L1 , la suite (Xn2 ) vérifie donc la loi forte des grands nombres
(LFGN), c’est-à-dire,
n
1 X 2 p.s.
Vn = Xi → E(X12 ) = 1.
n
i=1
(c) La fonction x 7→ 1/x est continue sur R∗+ et E(X12 ) = 1 ̸= 0. Par le théorème de continuité et la
question précédente, on a donc
n
X p.s. 1
Wn = n/ Xi2 → = 1.
i=1
E(X12 )

5. — Xn = 1/n est une suite déterministe qui tend vers 0 lorsque n tend vers l’infini. Elle converge
donc p.s. et donc aussi en probabilité et en loi. Elle converge également dans L2 .
— Xn = (−1)n est aussi déterministe, mais ne converge pas en loi car la fonction définie par
f (x) = −1x<−1 + x1|x|≤1 + 1x>1 est continue bornée avec Ef (Xn ) = (−1)n qui ne converge pas.
Ainsi, il n’y a pas convergence en probabilité, L2 ou p.s.
— Xn = 1An avec P(An ) → 0. La convergence L2 vers 0 se vérifie facilement : EXn2 = P(An ) → 0
(ce qui implique aussi la convergence en probabilité et en loi).
En revanche, on n’a pas nécessairement la convergence p.s. Contre-exemple classique de la "bosse"
qui se balade dans [0, 1] avec un support qui rétrécit. On construit les ensembles An de la façon
suivante :
— 1ère étape : A1 = [0, 1],
— 2ème étape : on découpe A1 en 2 et on fait glisser les ensembles A2 = [0, 1/2], A3 = [1/2, 1],
— 3ème étape : on recommence A4 = [0, 1/4], A5 = [1/4, 1/2], A6 = [1/2, 3/4], A7 = [3/4, 1],
etc.
avec pour espace probabilisé (Ω, F, P) = ([0, 1], B([0, 1]), Leb[0, 1]). Ainsi on a bien P(An ) =
E(1An ) = 1/2⌊ln2 (n)⌋ → 0, mais ∀ω ∈ [0, 1], 1An (ω) n’admet pas de limite puisque pour tout n,
il existe clairement des indices k, m ≥ n tels que 1Ak (ω) = 0 et 1Am (ω) = 1, c’est-à-dire

lim inf 1An (ω) = 0 < 1 = lim sup 1An (ω).


n n

Il ne peut donc pas y avoir convergence p.s.


— Xn = Zn 1Bn avec Zn ⇝ Z et P(Bn ) → 1.
(Xn ) converge en loi vers Z. En effet, Zn converge en loi vers Z et 1Bn converge en probabilité
vers 1 :
P(1Bn ̸= 1) = 1 − P(Bn ) → 0
soit, pour tout 1 > ε > 0
P(|1Bn − 1| ≥ ε) = P(1Bn ̸= 1) → 0
Ainsi, par le lemme de Slutsky, Xn converge en loi vers Z.
En revanche, la convergence en probabilité ne peut pas être assurée, i.e. Zn peut ne pas converger
en probabilité. Pour s’en convaincre, il suffit de considérer Bn = Ω pour tout n, donc Xn = Zn .
Si (Xn ) convergeait en probabilité, cela signifierait que (Zn ) converge en probabilité, or on sait
simplement que (Zn ) converge en loi, et la convergence en loi n’implique pas la convergence en
probabilité, cf. par exemple Z ∼ N (0, 1) et Zn = −Z pour tout n. Ainsi, Xn ne converge pas en
probabilité, et il n’y a pas non plus convergence p.s. ni L2 .
6. La suite (Xn ) converge p.s. vers X.
Il faut retenir le corollaire suivant du lemme de Borel-Cantelli, tel qu’énoncé dans le
cours : si pour tout ε > 0,

X
P(|Xn − X| ≥ ε) < ∞
n=1

alors (Xn ) converge p.s. vers X.


(k)
Preuve à partir du lemme de Borel-Cantelli. Soit k ≥ 1. Posons An l’événement {|Xn −X| ≥ 1/k}.
P (k)
Par hypothèse, nous avons n P(An ) < +∞. Par application du théorème de Borel-Cantelli, nous
en déduisons que  
P(lim sup{|Xn − X| ≥ 1/k}) = P ∩n ∪m≥n A(k) m = 0.
n
En considérant l’événement complémentaire, on en déduit que
 
(k)
P(lim inf {|Xn − X| ≤ 1/k}) = P ∪n ∩m≥n Am = 1,
n

c’est-à-dire que

∃Ωk , t.q. P(Ωk ) = 1, ∀ω ∈ Ωk , ∃nk ∈ N, ∀m ≥ nk , |Xm (ω) − X(ω)| ≤ 1/k,

et ceci est vrai quel que soit k ≥ 1. On pose Ω0 = ∩k Ωk , et on note que P(Ω0 ) = 1 (par passage
au complémentaire et en utilisant une borne de l’union). Notons également que pour tout ε > 0, il
existe k ∈ N tel que ε > 1/k. On en déduit finalement que

∀ω ∈ Ω0 , ∀ε > 0, ∃N (ω, ε), ∀n ≥ N (ε, ω), |Xn (ω) − X(ω)| ≤ ε.

Ceci signifie que la suite de variables aléatoires (Xn )n≥1 converge p.s. vers X.

Exercice 2
1. Pour déterminer la loi de la v.a. Mn /n, on calcule sa fonction de répartition (c’est un réflexe à avoir
quand on veut calculer la loi d’un min ou d’un max). Pour x ∈ R, on a

P (Mn /n ≤ x) = P (Mn ≤ nx) = P (∀i = 1, . . . , n, Xi ≤ nx) = (P (X1 ≤ nx))n ,

la dernière égalité étant vraie car les Xi sont i.i.d. . De plus,


Z nx
1 1 nx 1 1
P (X1 ≤ nx) = 2
du = arctan(u) −∞ = arctan(nx) + .
−∞ π(1 + u ) π π 2
Ainsi,  n
1 1
P (Mn /n ≤ x) = arctan(nx) + .
π 2
2. On étudie la convergence simple de la fonction de répartition de Mn /n. D’après la question précé-
dente, pour tout x ∈ R, on a
  
1 1
P (Mn /n ≤ x) = exp n ln arctan(nx) + .
π 2

Lorsque x ≤ 0, P (Mn /n ≤ x) ≤ P (Mn /n ≤ 0) = 2−n qui tend vers 0. Pour déterminer la li-
mite de P (Mn /n ≤ x) quand x > 0, il suffit d’utiliser le rappel : (1/π) arctan(nx) + 1/2 = 1 −
(1/π) arctan(1/(nx)). Ainsi
  
1
P (Mn /n ≤ x) = exp n ln 1 − arctan(1/(nx)) .
π
1
Comme π arctan(1/(nx)) −→ 0,
n→∞
 
1 n n 1 1
n ln 1 − arctan(1/(nx)) ∼ − arctan(1/(nx)) ∼ →− .
π π π (nx) πx
Remarquons que nous n’avons pas composé les équivalences à gauche, chose interdite en générale !
Nous avons finalement pour tout x ∈ R,

P (Mn /n ≤ x) → F ∞ (x),
n→∞

avec
x≤0

∞ 0 pour
F : x 7→ 1
− πx .
e pour x>0

On vérifie que F ∞ est une fonction de répartition (continue à droite, croissante, limite nulle en −∞,
limite 1 en +∞). On en déduit que la suite de suite de v.a. Mn /n converge en loi vers la loi dont la
fonction de répartition est F ∞ .
3. Montrons à présent que cette loi admet une densité par rapport à la mesure de Lebesgue. Attention,
ceci n’est pas automatique, car il y a des lois sur R qui ne sont pas absolument continues par
rapport à la mesure de Lebesgue ! Par exemple, la fonction de répartition F (x) = 1[0,+∞[ (x) (mesure
Dirac en 0) n’admet pas de densité par rapport à la mesure de Lebesgue. Une condition suffisante
pour qu’une fonction de répartition admette une densité par rapport à la mesure de Lebesgue est
qu’elle soit continue et C 1 par morceaux 1 . Alors la densité coïncide avec la dérivée de la fonction de
répartition (p.p.).
Après ce petit rappel, reprenons l’exercice et montrons que la loi associée à F ∞ admet une densité.
La fonction F ∞ est continue et C 1 par morceaux, la loi associée à F ∞ admet donc une densité f ∞
par rapport à la mesure de Lebesgue, égale p.p. à la dérivée de F ∞ . La densité f ∞ est ainsi donnée
par :


f : x 7→ 1
0
1
 pour x ≤ 0 .
πx2
exp − πx pour x > 0

Remarque : Cette loi appartient à la famille des lois de Fréchet, dont les fonctions de répartition
s’écrivent de façon générale sous la forme
x−m −α
F (x) = e−( s ) 1x>m

de paramètres (m, s, α) ∈ R × R∗+ × R∗+ .

Exercice 3
R
1. Comme f est positive, il suffit de vérifier que R f (x) dx = 1. Ceci s’obtient en faisant le changement
de variable y = θx :
Z ∞ Z ∞
(θx)p−1 −θx
Z
1
f (x) dx = e θdx = y p−1 e−y dy = 1.
R 0 Γ(p) Γ(p) 0

2. De la même façon que plus haut, on a


Z Z ∞
1 Γ(k + p)
k
E(X ) = xk f (x) dx = k
(θx)k+p−1 e−θx θdx = .
R θ Γ(p) 0 θk Γ(p)
1. Pour rappel, une fonction f : R → R est dite C 1 par morceaux si pour tout segment de R, il existe une partition finie
composée d’intervalles, telle que sur chaque cellule A (de la forme [a, b], ]a, b], [a, b[ ou ]a, b[), la restriction de f à l’intérieur
de A (c’est-à-dire à ]a, b[) est prolongeable en une fonction C 1 sur A. Autrement dit, il est nécessaire est suffisant que f soit
C 1 sur ]a, b[ et que f et f ′ admettent des limites finies en a+ et en a− .
Ainsi, on a

E(X) = Γ(p + 1)/(θΓ(p)) = p/θ


E(X 2 ) = Γ(p + 2)/(θ2 Γ(p)) = p(p + 1)/θ2
Var(X) = E(X 2 ) − (E(X))2 = θ−2 (p(p + 1) − p2 ) = p/θ2 .

3. Pour toute fonction Ψ borélienne bornée,


Z
1 2
E(Ψ(Y 2 )) = √ Ψ(y 2 )e−y /2 dy
2π R
Z ∞
1 2
= √ Ψ(y 2 )y −1 e−y /2 2ydy
2π 0
Z ∞
1
=√ Ψ(u)u−1/2 e−u/2 du,
2π 0
√ √
en posant u = y 2 . Comme 1/ 2π = 1/( 2Γ(1/2)), on a Y 2 ∼ γ(1/2, 1/2). Par ailleurs, on sait que
Y 2 ∼ χ2 (1) par définition.
4. Pour toute fonction Ψ borélienne bornée,
Z ∞
θp
E(Ψ(X/a)) = Ψ(x/a)xp−1 e−θx dx
Γ(p) 0
(aθ)p ∞
Z
= Ψ(x/a)(x/a)p−1 e−aθx/a dx/a
Γ(p) 0
(aθ)p ∞
Z
= Ψ(y)y p−1 e−aθy dy
Γ(p) 0

d’où le résultat.
5. Pour déterminer la loi de X +Y , on calcule sa fonction caractéristique ΦX+Y (t) = E[eit(X+Y ) ]. Grâce
à l’indépendance, cette fonction est égale au produit des fonctions caractéristiques de X et de Y :
1 1
ΦX+Y (t) = ΦX (t) ΦY (t) = = .
(1 − iθ−1 t)p1 (1 − iθ−1 t)p2 (1 − iθ−1 t)p1 +p2

Ainsi, ΦX+Y est la fonction caractéristique de la loi γ(p1 + p2 , θ).


6. D’après la question précédente (et par une récurrence triviale), Sn ∼ γ(n, θ). En utilisant la question
2, nous avons donc E(Sn ) = n/θ, Var(Sn ) = n/θ2 .
7. En utilisant la question 3, les Xi2 sont i.i.d. de loi γ(1/2, 1/2). Ainsi, Sn′ ∼ γ(n/2, 1/2). Comme nous
savons par ailleurs que Sn′ ∼ χ2 (n) (par définition), nous avons γ(n/2, 1/2) = χ2 (n). En utilisant la
question 2, on retrouve que ESn′ = n et Var Sn′ = 2n.

Exercice 4
1. ∀λ ∈ R, on a :
X X θk
E (exp(λ(X − θ))) = exp(λ(k − θ))P(X = k) = exp(λ(k − θ))e−θ
k!
k≥0 k≥0
k
X eλ θ λθ
= e−θ(λ+1) = e−θ(λ+1) ee = exp(θϕ(λ)).
k!
k≥0
2. Pour tout x > 0 et λ ≥ 0, on a, par croissance de x 7→ eλx et par l’inégalité de Markov,
 
P X − θ ≥ x ≤ P exp(λ(X − θ)) ≥ exp(λx)
≤ exp(−λx)E (exp(λ(X − θ)))
= exp(−λx) exp(θϕ(λ)),

en utilisant la question 1.
3. Soit f : λ 7→ λx − ϕ(λ) définie sur [0, +∞[, pour un x > 0 fixé. On a pour tout λ ≥ 0,

f ′ (λ) > 0 ⇔ (x + 1) − eλ > 0 ⇔ λ < ln(x + 1).

On en déduit que f est strictement croissante sur [0, ln(x + 1)] et strictement décroissante sur
[ln(x + 1), +∞[. Ainsi, elle atteint son maximum en l’unique point λ0 = ln(x + 1). Par suite,

sup(λx − ϕ(λ)) = x ln(x + 1) − eln(x+1) + ln(x + 1) + 1 = h(x).


λ>0

4. Ainsi, en remarquant que l’inégalité trouvée à la question 2. est vraie pour tout λ ≥ 0,
 n  x o
P X − θ ≥ x ≤ inf exp −θ(λ − ϕ(λ))
λ≥0 θ
!
n x o
= exp −θ sup λ − ϕ(λ)
λ≥0 θ
= exp (−θh(x/θ)) ,

en utilisant cette fois la question 3.


5. L’inégalité de Bienaymé-Tchebychev s’écrit, pour X ∼ P(θ),

P X − θ ≥ x ≤ P |X − θ| ≥ x = P |X − EX| ≥ x ≤ Var(X)/x2 = θ/x2 .


  

Ainsi, lorsque θ = 2 et x = 10 − θ = 8, il s’agit de comparer la borne de Bennett e−2h(8/2) =


e−2h(4) ≃ 0.0003 avec celle de Bienaymé-Tchebychev θ/x2 = 2/82 = 1/32 ≃ 0.031. L’inégalité de
Bienaymé-Tchebychev est moins fine que l’inégalité de type Bennett que l’on vient d’établir.
Remarque : Cette inégalité de Bennett est vérifiée par les sommes de variables aléatoires qui
peuvent n’être bornées que d’un côté : soient X1 , . . . , Xn des variables aléatoires indépendantes avec
variance finie et telles que Xi ≤ b presque sûrement, pour b ≥ 0 et pour tout i ≤ n. Alors, quel que
soit x > 0, on a
n
!   
X v bx
P (Xi − EXi ) ≥ x ≤ exp − 2 h ,
b v
i=1

où v = ni=1 E[Xi2 ].
P

Exercice 5
1. Pour tout λ ≥ 0, la fonction x 7→ exp(λx) est convexe sur R, on a donc l’inégalité suivante : pour
tout x ∈ [−M, M ],
 
M −x M +x M −x M +x
exp(λx) = exp (−λM ) + (λM ) ≤ exp(−λM ) + exp(λM ).
2M 2M 2M 2M
2. Pour tout i ∈ N, on obtient par passage à l’espérance :
   
M − Xi M + Xi
E(exp(λXi )) ≤ E exp(−λM ) + E exp(λM )
2M 2M
exp(−λM ) exp(λM )
= +
2 2
= cosh(λM )
≤ exp(λ2 M 2 /2).

La dernière inégalité est vraie car

1 X uk 1 X (−u)k X u2k
cosh(u) = + =
2 k! 2 k! (2k)!
k≥0 k≥0 k≥0
X u2k
exp(u2 /2) =
2k k!
k≥0

et 2k k! est le produit des facteurs pairs (seulement) de (2k)!.


3. Pour tout λ ≥ 0 et x > 0, on a par l’inégalité de Markov :
 
Sn
P ≥ x = P (exp(λSn ) ≥ exp(λnx))
n
≤ exp(−λnx)E (exp(λSn ))
Yn
= exp(−λnx) E exp(λXi ) ((Xi )i indépendants mais pas i.i.d.)
i=1
  2 2 
λ M
≤ exp n − λx ,
2

en utilisant la question précédente.


4. Comme l’inégalité précédente est vraie pour tout λ ≥ 0, on a pour tout x > 0,
    2 2    2 2 
Sn λ M λ M
P ≥ x ≤ inf exp n − λx = exp n inf − λx
n λ>0 2 λ>0 2
  2
x2 nx2
  
x
= exp n − = exp − ,
2M 2 M 2 2M 2

car l’infinimum est atteint pour λ = x/M 2 . On obtient la deuxième inégalité en remarquant que :
     
Sn Sn Sn
P ≥x ≤P ≥x +P − ≥x ,
n n n

où la première inégalité vient du fait que l’événement { Snn = x} se retrouve dans les deux événements
de droite, qui ne sont donc pas disjoints. Comme −Sn est la somme des v.a. −Xk qui restent centrées
et dans [−M, M ], l’inégalité de Hoeffding précédente s’applique encore et on obtient le résultat voulu.
5. Soit U0 , U1 , U2 , . . . une suite de v.a. i.i.d. uniformes sur [0, 2]. Les v.a. Xk = Uk − 1 sont centrées et
dans [−1, 1], on peut donc appliquer l’inégalité de Hoeffding et on obtient :
 Pn   Pn 
k=1 Xk k=1 Uk
P ≥x =P − 1 ≥ x ≤ 2 exp(−nx2 /2) =: ∆H .
n n
L’inégalité de Bienaymé-Tchebychev appliquée à la v.a. nk=1 Uk /n (on calcule E(U1 ) = 1 et V(U1 ) =
P
1/3) s’écrit
 Pn  Pn 
k=1 Uk V k=1 Uk /n 1
P −1 ≥x ≤ 2
= =: ∆BT
n x 3nx2
Les bornes ∆H et ∆BT se comparent de la façon suivante :
— pour n = 100 et x = 0.1, on a nx2 = 1 donc ∆H ≃ 1.21 et ∆BT = 1/3 ;
— pour n = 100 et x = 0.5, on a nx2 = 25 donc ∆H ≃ 7.46 10−6 et ∆BT = 1/75 ≃ 0.013 ;
— pour n = 1000 et x = 0.1, on a nx2 = 10 donc ∆H ≃ 0.01 et ∆BT = 1/30 ≃ 0.03.
La borne de Hoeffding est mauvaise pour les petites valeurs de nx2 mais devient beaucoup plus fine
que celle de Bienaymé-Tchebychev pour de plus grandes valeurs de nx2 donc de x ou n. Par contre,
la borne de Hoeffding utilise des hypothèses plus contraignantes (v.a. bornées).

Exercice 6
1. Pour toute fonction Ψ borélienne bornée, on a
Z ∞
2
2
E(Ψ(X1 )) = Ψ(x2 )2xe−x dx
Z0 ∞
= Ψ(u)e−u du,
0

en posant u = x2 (du = 2xdx). Ainsi, X12 ∼ E(1) (loi exponentielle dePparamètre 1). D’après
n
3, comme les Xi2 sont i.i.d. de loi E(1) = γ(1, 1) nous avons
l’exercice P 2
i=1 Xi ∼ γ(n, 1) puis
−1 n 2
Vn = n i=1 Xi ∼ γ(n, n).
2. On applique le TCL aux variables aléatoires Xi2 i.i.d. et de carré intégrable pour obtenir

n(Vn − E(X12 )) ⇝ N 0, Var(X12 ) .


Comme X12 ∼ E(1) = γ(1, 1), on calcule aisément E(X12 ) = 1 et Var(X12 ) = 1. Ainsi, en utilisant la
caractérisation de la convergence en loi avec les fonctions de répartition, on a que pour tout t ∈ R,

P( n(Vn − EVn ) ≥ t) −→ 1 − Φ(t).
n→∞

Par ailleurs, comme 1 − Φ(x) = Φ(−x) par symétrie de la loi N (0, 1), on a bien le résultat escompté.
3. (a) Comme Vn ∼ γ(n, n), Vn n’est pas bornée (p.s.) et on ne peut pas utiliser l’inégalité de Hoeffding.
Cependant, Vn possède des moments exponentiels (comme on le verra plus bas), donc on cherche
à utiliser la méthode de Chernoff, en espérant que les calculs soient faisables.
(b) Comme Vn ∼ γ(n, n), on a
Z ∞
nn
E (exp(λVn )) = eλx xn−1 e−nx dx
Γ(n) 0
nn (n − λ)n ∞ n−1 −(n−λ)x
Z
= x e dx
(n − λ)n Γ(n) 0
1
= × 1,
(1 − λ/n)n
en reconnaissant la loi γ(n, n − λ). Par suite,

E (exp(λ(Vn − 1))) = exp (−λ − n ln(1 − λ/n)) ,

d’où ϕ(λ) = −λ − n ln(1 − λ/n).


(c) Il s’agit de maximiser la fonction λ 7→ λ(x + 1) + n ln(1 − λ/n) sur [0, +∞[ pour un x > 0 fixé. La
dérivée en λ est positive si et seulement si
x + 1 − n/(n − λ) ≥ 0
c’est-à-dire λ ≤ nx/(x + 1). Donc le maximum est atteint en λ0 = nx/(x + 1). On vérifie bien que
λ0 < n. De plus, la fonction vaut en λ0
h(x) = λ0 (x + 1) + n ln(1 − λ0 /(n)) = xn − n ln(x + 1).

(d) D’après la méthode de Chernoff (refaire la preuve dans notre cas pour vous en convaincre !), on a
pour tout t > 0,
√  √ 
P Vn − 1 ≥ t/ n ≤ exp −h(t/ n) ,
avec
√ √ √
h(t/ n) = t n − n ln(t/ n + 1)

= nψ(t/ n),
ce qui prouve finalement que
√  √ 
P Vn − 1 ≥ t/ n ≤ exp −nψ(t/ n) .
√ 2
Lorsque n tend vers l’infini, on a −nψ(t/ n) = −t2 /2 + o(1). Donc la borne est équivalente à e−t /2 ,
ce qui est toujours plus grand que Φ(−t). En effet, d’après le rappel,
−t2 /2 √ on a toujours Φ(−t) ≤ φ(t)/t,

ce qui assure que l’inégalité Φ(−t) ≤ e est vraie dès que t ≥ 1/ 2π. De plus, si 0 < t < 1/ 2π,
2
alors e−t /2 > e−1/(4π) ≈ 0.92 tandis que bien entendu Φ(−t) ≤ 1/2. Ainsi la borne est moins bonne
que celle obtenue via le TCL, mais si t grandit elle est du bon ordre à l’échelle exponentielle. Surtout,
il est important de noter que l’inégalité obtenue plus haut est valable pour tout n ≥ 1 tandis que
le résultat de la question 2 n’est valable que lorsque n tend vers l’infini. Finalement, cet exemple
montre surtout que la méthode de Chernoff est assez précise lorsque n tend vers l’infini.

Exercice 7
1. La LFGN appliquée aux variables aléatoires Xi i.i.d. et intégrables donne
p.s.
X n → E(X1 ) = m.
De plus, nous avons la décomposition (à savoir !)
n
X
σn2 = n−1 Xj2 − (X n )2 .
j=1

La LFGN appliquée aux variables aléatoires Xi2 i.i.d. et intégrables (car E[X12 ] = Var X1 + E[X1 ]2 =
σ 2 + m2 < ∞) donne
n
X p.s.
n−1 Xj2 → E(X12 ) = σ 2 + m2 .
j=1

Au final, nous avons


p.s.
σn2 → σ 2 .
Remarque : attention ! On ne peut pas appliquer la LFGN directement aux Xi − X n car ces variables
ne sont pas indépendantes !
2. Les v.a. Xi sont i.i.d. dans L2 , on peut donc leur appliquer le TCL :

√ Xn − m
n ⇝ N (0, 1).
σ
p.s. p.s.
De plus, d’après la question précédente, σn2 → σ 2 . Montrons qu’alors √σ 2 → 1 (quand bien même
σn
√σ 2 peut prendre la valeur ∞). Cela n’est pas direct car σn2 peut s’annuler avec probabilité non-nulle.
σn

(
√σ si x > 0
Première option : Soit φ : x ∈ R 7→ x . Cette fonction est C 0 sur R+ mais elle
∞ sinon.
est surtout continue en σ2 (puisque σ2 > 0), qui est la limite p.s. de σn2 . Ainsi, par le théorème de
p.s.
continuité, φ(σn2 ) = √σ 2 → 1.
σn

p.s.
Deuxième option : Puisque, σn2 −→ σ 2 , il existe donc un événement Ω0 de probabilité 1, tel que
∀ω ∈ Ω0 , on a σn2 (ω) −→ σ 2 > 0. En particulier, pour tout ω ∈ Ω0 , il existe un rang n0 (ω) tel que
n→∞
∀n ≥ n0 (ω), on a σn2 (ω) > 0 et ∀n ≥ n0 (ω), il est donc licite de composer par la fonction continue
x ∈ R∗+ 7→ √σx , ce qui assure que √ σ2 −→ 1. Enfin, puisque cela est vrai pour tout ω ∈ Ω0 et
σn (ω) n→∞
p.s.
que P(Ω0 ) = 1, on en déduit bien que √σ 2 → 1.
σn
Ces deux convergences (en loi et p.s.) et le lemme de Slutsky impliquent que

√ Xn − m √ Xn − m σ
n p = n p ⇝ N (0, 1).
σn2 σ σn2

Exercice 8
1. Soit Z1 = − ln(X1 ) (bien défini car P(X1 = 0) = 0), alors Z1 suit une loi exponentielle de paramètre
1 : en effet, pour tout u ∈ R,

P(Z1 ≤ u) = P(X1 ≥ e−u ) = (1 − e−u )1[0,+∞[ (u).

2. Comme ln Yn = Z n , où Z n = n−1 ni=1 Zi , EZ1 = 1, Var Z1 = 1, le théorème de la limite centrale


P
appliqué aux variables (Zi )i i.i.d. vérifiant EZ12 < ∞ donne

n(Z n − 1) ⇝ N (0, 1).

La méthode Delta appliquée avec la fonction g(u) = eu qui est dérivable en 1 avec g ′ (1) = e donne
alors √
n(Yn − e) ⇝ N (0, e2 ).

Exercice 9

1. Par la LFGN (Xi i.i.d et intégrables), X n converge p.s. vers E(X1 ) = 0. De même, le TCL (Xi i.i.d

et de carré intégrable) donne nX n ⇝ N (0, 1).
2. En se souvenant que cos′ = − sin et par la méthode Delta (cos dérivable en 0), on obtient

n(cos(X n ) − 1) ⇝ N (0, 0) = δ0 ,

où δ0 est la mesure de Dirac en 0, ce qu’on peut encore noter



n(cos(X n ) − 1) ⇝ 0,

autrement dit la limite en loi est la constante 0, qui est effet une loi dénégérée. On en déduit

uniquement que la vitesse de convergence de cos(X n ) vers 1 est plus rapide que 1/ n. Il faut donc
pousser le développement à l’ordre suivant pour pouvoir être plus précis sur vitesse et limite.
3. Le développement limité de cos en 0 à l’ordre 2 est :

x2
cos x = cos 0 + cos′ (0)x + cos′′ (0) + o(x2 )
2
x2
=1− + o(x2 ).
2
Autrement dit, il existe une fonction r tendant vers 0 en 0 telle que :

x2
cos x = 1 − (1 + r(x)).
2
4. D’après la question précédente, nous avons :

(X n )2
cos(X n ) − 1 = − (1 + r(X n )),
2
d’où √
−2n(cos(X n ) − 1) = ( nX n )2 (1 + r(X n )).
Il reste maintenant à étudier la convergence du terme de droite avec comme outil le Lemme de
Slutsky. Tout d’abord, la fonction r est prolongeable par continuité en 0 de sorte que r(0) = 0. Or
P
X n converge p.s. (et a fortiori en probabilité) vers 0, donc par le théorème de continuité, r(X n ) → 0.
√ √
De même, nX n ⇝ N (0, 1), donc par continuité ( nX n )2 ⇝ Y 2 avec Y ∼ N (0, 1). Autrement dit,

( nX n )2 ⇝ χ21 . Finalement, le Lemme de Slutsky donne :

−2n(cos(X n ) − 1) ⇝ χ21 .

Bilan : la suite de v.a. (cos(X n )) converge à vitesse 1/n vers sa limite, c’est-à-dire bien plus rapide-
ment que pour le TCL classique.

Exercice 10

1. Commençons par rappeler la loi forte des grands nombres pour le cas particulier de lois de Bernoulli :
si (Bn ) est une suite de variables i.i.d. de Bernoulli de paramètre θ, alors

B1 + · · · + Bn p.s.
−−−→ θ.
n n→∞

Par ailleurs, puisque Sn ∼ B(n, θ) pour tout n, on peut écrire


d
Sn = B1 + · · · + Bn , (1)
mais c’est seulement une égalité en loi, donc on ne peut pas appliquer la loi des grands nombres (ni
faible, ni forte) à la suite (Sn /n) pour en déduire une convergence en probabilité ou presque sûre.
(n)
Autrement dit, on peut toujours définir une suite doublement indexée (Bk )1≤k≤n telle que pour
(n)
tout n fixé, les n variables (Bk )1≤k≤n sont i.i.d. de Bernoulli de paramètre θ et vérifient l’égalité
suivante entre variables aléatoires :
(n)
Sn = B1 + · · · + Bn(n) ,

mais les variables de Bernoulli n’ont aucune raison d’être les mêmes d’un n à l’autre, donc on n’est
pas dans le cadre d’application de la loi des grands nombres.
2. Pour démontrer la convergence p.s., on va utiliser le lemme de Borel-Cantelli, autrement dit, on
cherche à montrer que, pour tout ε > 0,
X
P (|Sn /n − θ| ≥ ε) < ∞.
n≥1

On part de l’égalité en loi (1) : pour tout c > 0 et en notant B n := (B1 + · · · + Bn )/n, celle-ci
implique l’égalité suivante sur les probabilités

P (|Sn /n − θ| ≥ c) = P |B n − θ| ≥ c

Or, puisqu’une variable de Bernoulli est bornée par 0 et 1, l’inégalité de Hoeffding (la version du
cours) appliquée aux variables i.i.d. Bi donne :

P |B n − θ| ≥ c ≤ 2 exp(−2c2 n).


Ainsi, X X
P (|Sn /n − θ| ≥ c) ≤ 2 exp(−2c2 n) < ∞,
n≥1 n≥1

donc par le lemme de Borel-Cantelli, (Sn /n) converge p.s. vers θ.


3. Soit φ : x ∈ R+ 7→ ln(x)1x>0 + 1x=0 . Alors Yn = φ(Sn /n) et φ est continue en θ (puisque θ > 0),
p.s.
qui est la limite p.s. de (Sn /n). Ainsi, puisque Sn /n −→ θ, le théorème de continuité assure que
p.s.
Yn = φ(Sn /n) −→ φ(θ) = ln(θ).
4. Pour établir la convergence en loi de (Yn ), on commence par établir celle de (Sn /n). On part à
nouveau de l’égalité en loi (1), qui implique que pour tout n
√ d √
n(Sn /n − θ) = n(B n − θ).

Or le TCL appliqué aux variables i.i.d. Bi assure que



n(B n − θ) ⇝ N (0, θ(1 − θ)),

ce qui prouve que √


n(Sn /n − θ) ⇝ N (0, θ(1 − θ)).
On peut maintenant s’intéresser à la convergence en loi de (Yn ).

Première méthode : D’après ce qui précède, Yn = φ(Sn /n) avec φ dérivable en θ et de dérivée
φ′ (θ) = 1/θ > 0. Donc, par application de la méthode Delta avec la fonction φ,
√ √
n(φ(Sn /n) − φ(θ)) = n(Yn − ln(θ)) ⇝ N (0, (1 − θ)/θ).
Seconde méthode : On remarque tout d’abord que
√ √ √
n(Yn − ln(θ)) = n(ln(Sn /n) − ln(θ))1Sn ≥1 + n(1 − ln(θ))1Sn =0 .

Montrons que le terme de droite converge vers 0 en probabilité. Pour tout ϵ > 0,

P(| n(1 − ln(θ))1Sn =0 | ≥ ϵ) ≤ P(Sn = 0) = (1 − θ)n −→ 0.
n→∞

√ P
Ainsi n(1 − ln(θ))1Sn =0 −→ 0.
Concernant le terme de gauche, le TCL donne

n(Sn /n − θ) ⇝ N (0, θ(1 − θ)).

De plus, par la méthode Delta appliquée avec ln (dérivable en θ), nous obtenons :

n(ln(Sn /n) − ln(θ)) ⇝ N (0, 1/θ − 1).

Ensuite, par application du Lemme de Slutsky en tenant compte que 1Sn ≥1 tend vers 1 en probabilité,
nous obtenons : √
n(ln(Sn /n) − ln(θ))1Yn =ln Sn /n) ⇝ N (0, 1/θ − 1).
Finalement, puisque
√ √ √
n(Yn − ln(θ)) = n(ln(Sn /n) − ln(θ))1Sn ≥1 + n(1 − ln(θ))1Sn =0 ,

on obtient (en appliquant à nouveau le Lemme de Slutsky) :



n(Yn − ln(θ)) ⇝ N (0, 1/θ − 1).

Vous aimerez peut-être aussi