Sorbonne Université, Master 1 MU4MA015, Statistique, 2024-2025
Cours : A. Guyader TD : C. Dion-Blanc, A. Godichon, A. Guyader
TD 1 : Outils probabilistes
Exercice 1 (Modes de convergence)
1. Rappeler les définitions des modes de convergence suivants : en probabilité, dans L2 , en loi, presque
sûre.
L2 P
2. Montrer que Xn → X implique Xn → X.
3. Soit (Xn )n≥1 une suite de variables aléatoires qui converge en probabilité vers une constante a. Soit
h : R → R une fonction continue. Montrer que (h(Xn ))n≥1 converge en probabilité vers h(a).
4. Soit (Xn )n≥1 une suite de variables aléatoires i.i.d. admettant pour densité
f (x) = 2x exp(−x2 )1[0,+∞[ (x)
par rapport à la mesure de Lebesgue.
(a) Calculer E(X12 ).
(b) Étudier la convergence presque sûre de Vn = n1 ni=1 Xi2 .
P
(c) Étudier la convergence presque sûre de Wn = n/ ni=1 Xi2 .
P
5. Étudier la convergence de la suite de variables aléatoires (Xn )n≥1 dans chacun des cas suivants :
Xn = 1/n ; Xn = (−1)n ; Xn = 1An pour une suite d’événements An telle que P(An ) → 0 ; Xn =
Zn 1Bn pour Zn ⇝ Z et P(Bn ) → 1.
6. (Résultat
P à savoir !) Que dire de la suite de variables aléatoires (Xn )n≥1 lorsque pour tout ε > 0,
on a n≥1 P(|Xn − X| ≥ ε) < ∞, pour une variable aléatoire X donnée ?
Exercice 2 (Cauchy et Fréchet) Soit (Xn )n≥1 une suite de variables aléatoires i.i.d. admettant pour
densité (par rapport à la mesure de Lebesgue)
f (x) = 1/(π(1 + x2 )), x ∈ R
(loi de Cauchy). On note Mn la variable aléatoire définie par Mn = maxi=1,...,n Xi .
1. Déterminer la loi de Mn /n.
2. Montrer que Mn /n converge en loi. Rappel : ∀x > 0, arctan(x) + arctan(1/x) = π/2.
3. Montrer que cette loi limite admet une densité par rapport à la mesure de Lebesgue, que l’on
déterminera.
Exercice 3 (Loi Gamma, formules à retenir !) On dit que X suit une loi Gamma de paramètres p
et θ (p > 0, θ > 0), notée γ(p, θ), si sa densité (par rapport à la mesure de Lebesgue) est :
θp p−1
f (x) = x exp(−θx)1[0,+∞[ (x) ,
Γ(p)
ou de façon équivalente, si sa fonction caractéristique vaut ΦX (t) = 1/(1 − it/θ)p pour tout réel t. On
rappelle les propriétés suivantes de la fonction Gamma :
Z ∞
√
∀α > 0, Γ(α) = xα−1 exp(−x)dx, Γ(α + 1) = αΓ(α), Γ(1/2) = π.
0
1. Vérifier que la loi γ(p, θ) est bien une loi de probabilité.
2. Calculer E(X k ) pour k ≥ 1. En déduire que E(X) = p/θ et Var(X) = p/θ2 .
3. Soit Y de loi N (0, 1). Calculer la densité de Y 2 . En déduire que γ(1/2, 1/2) = χ2 (1).
4. Si a > 0, montrer que X/a ∼ γ(p, aθ).
5. Soient X et Y deux v.a. indépendantes de lois respectives γ(p1 , θ) et γ(p2 , θ). Montrer que X + Y ∼
γ(p1 + p2 , θ).
6. Si X1 , . . . , Xn sont n variables aléatoires indépendantes de même loi γ(1, θ) (loi exponentielle de
paramètre θ), donner la loi de la somme Sn = X1 + . . . + Xn et calculer E(Sn ) et Var(Sn ).
7. Si X1 , . . . , Xn sont n variables aléatoires indépendantes de même loi N (0, 1), donner la loi de Sn′ =
X12 + . . . + Xn2 et en déduire que γ(n/2, 1/2) = χ2 (n). Calculer E(Sn′ ) et Var(Sn′ ).
Exercice 4 (Inégalité de type Bennett) On note h la fonction définie sur R+ par h(x) = (1 +
x) ln(1 + x) − x, et ϕ la fonction définie sur R par ϕ(x) = exp(x) − x − 1. Soit X une variable aléatoire de
loi de Poisson de paramètre θ > 0.
1. Pour tout nombre réel λ, exprimer E (exp(λ(X − θ))) à l’aide de la fonction ϕ.
2. Montrer que ∀λ ≥ 0, ∀x > 0, P(X − θ ≥ x) ≤ exp(θϕ(λ) − λx).
3. Calculer supλ≥0 (λx − ϕ(λ)) pour tout x > 0.
4. En déduire que pour tout x > 0, P(X − θ ≥ x) ≤ exp (−θh(x/θ)).
5. Majorer, lorsque θ = 2, la probabilité P(X ≥ 10) en utilisant l’inégalité de Bennett, puis celle de
Bienaymé-Tchebychev.
Exercice 5 (⋆)(Inégalité de Hoeffding) Soit (Xn )n∈N une suite de variables aléatoires indépendantes
telles que, pour tout n ∈ N, on ait E(Xn ) = 0 et |Xn | ≤ M p.s. pour un M > 0. On rappelle que
2 cosh(u) = exp(u) + exp(−u).
1. Pour tout x ∈ [−M, M ] et λ ≥ 0, établir l’inégalité
M −x x+M
exp(λx) ≤ exp(−λM ) + exp(λM ) .
2M 2M
2. En déduire que, pour tout i ∈ N, E(exp(λXi )) ≤ cosh(λM ) ≤ exp(λ2 M 2 /2). Indication : Pour mon-
trer l’inégalité de droite, on pourra comparer les séries entières des fonctions cosh(u) et exp(u2 /2).
3. On note Sn = X1 + · · · + Xn . Pour tout λ ≥ 0 et x > 0, montrer que l’on a
2 2
Sn λ M
P ≥ x ≤ exp n − λx .
n 2
4. En déduire les inégalités de Hoeffding : pour tout x > 0,
nx2 nx2
Sn Sn
P ≥ x ≤ exp − et P ≥ x ≤ 2 exp − .
n 2M 2 n 2M 2
5. Donner la forme des inégalités de Hoeffding pour des v.a. i.i.d. uniformes sur [0, 2]. Que vaut la borne
quand n = 100 et x = 0.1 puis x = 0.5 enfin quand n = 1000 et x = 0.1 ? Comparer ces bornes avec
celles données par l’inégalité de Bienaymé-Tchebychev.
Exercice 6 (⋆)(Weibull) Comme à l’exercice 1, on considère des variables aléatoires (Xi )1≤i≤n i.i.d.
de densité
f (x) = 2x exp(−x2 )1[0,+∞[ (x),
et on pose Vn = n1 ni=1 Xi2 .
P
1. Déterminer la loi de X12 . En déduire celle de Vn .
2. Montrer que, pour tout réel t,
√
P Vn − 1 ≥ t/ n −→ Φ(−t)
n→∞
où Φ est la fonction de répartition de la loi normale centrée réduite.
3. Fixons maintenant un entier n ≥ 1. Nous cherchons à montrer pour tout réel t > 0,
√ √
P Vn − 1 ≥ t/ n ≤ exp −nψ(t/ n) ,
pour la fonction ψ définie par ψ(u) = u − ln(1 + u).
(a) Quelle méthode doit-on utiliser ?
(b) Trouver la fonction ϕ (dépendant éventuellement de n) telle que
E (exp(λ(Vn − 1))) = eϕ(λ) pour 0 ≤ λ < n.
(c) Calculer h(x) = supλ≥0 (λx − ϕ(λ)) pour tout x > 0.
(d) En déduire le résultat annoncé, puis calculer un équivalent de la borne lorsque n tend vers l’infini.
Comparer à la question 2. Rappel : en notant φ la densité de la gaussienne standard, on a pour
tout t > 0 l’encadrement
1 φ(t) φ(t)
1− 2 ≤ Φ(−t) ≤ .
t t t
Exercice 7 (Moyenne et variance empiriques) Soit (Xn )n≥1P une suite i.i.d de variables aléatoires
réelles, d’espérance m et de variance 0 < σ 2 < ∞. On note X n = n1 ni=1 Xi et σn2 = n1 ni=1 (Xi − X n )2 .
P
1. Montrer que X n et σn2 convergent presque sûrement et déterminer leurs limites.
2. En tolérant que la variable aléatoire suivante puisse prendre les valeurs ±∞, montrer que
√ Xn − m
n p
σn2
converge en loi et déterminer la loi limite.
Exercice 8 (Produit de variables aléatoires)QSoient X1 , . . . , Xn des variables aléatoires indépen-
dantes, de même loi uniforme sur [0, 1], et Yn = 1/( ni=1 Xi )1/n .
1. Quelle est la loi de Z1 = − ln(X1 ) ?
√
2. Montrer que n(Yn − e) converge en loi et identifier la loi limite.
√
Exercice 9 (VitesseP plus rapide que 1/ n) Soient X1 , . . . , Xn des variables aléatoires i.i.d., centrées,
de variance 1, et X n = ni=1 Xi /n.
√
1. Étudier la convergence p.s. de X n et en loi de nX n .
√
2. Montrer que n(cos(X n ) − 1) converge en loi et identifier la loi limite. Pourquoi la limite est-elle
dégénérée ?
3. Donner un développement limité non constant de cos en 0.
4. En reprenant la démonstration de la méthode Delta, montrer qu’il existe une suite de réels positifs
d
(vn )n∈N tendant vers l’infini et une v.a. réelle Z non constante p.s. telles que vn (cos(X n ) − 1) → Z.
Exercice 10 (⋆)(Suite de binomiales) Soit θ ∈]0, 1[ et (Sn ) une suite de variables aléatoires de lois
respectives B(n, θ) définies sur le même espace probabilisé.
1. Peut-on obtenir un résultat de convergence (en probabilité ou presque sûre) pour la suite (Sn /n)
grâce à la loi des grands nombres ?
2. Montrer que (Sn /n) converge p.s. vers θ.
3. On définit maintenant la suite de variables (Yn ) par
ln(Sn /n) si Sn ≥ 1
Yn =
1 si Sn = 0
Montrer que (Yn ) converge p.s. vers ln(θ).
√
4. Montrer que ( n(Yn − ln(θ))) converge en loi vers une gaussienne centrée de variance (1 − θ)/θ.