0% ont trouvé ce document utile (0 vote)
30 vues14 pages

Convergence en probabilité des variables aléatoires

Transféré par

moundoungabernard
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
30 vues14 pages

Convergence en probabilité des variables aléatoires

Transféré par

moundoungabernard
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Leçon 18

Convergence en probabilité
de suites de variables aléatoires

1. Convergence en probabilité

2. Distance en probabilité

3. Comparaison avec la convergence presque sûre

4. Bilan de convergences

5. Complément : Intégrabilité uniforme

Exercices

1
La convergence en probabilité (ou convergence en mesure) est une forme
affaiblie à la fois de la convergence presque sûre et de la convergence dans
les espaces Lp , qui est bien adaptée aux inégalités classiques comme celles de
Markov et Tchebychev.
Dans cette leçon, Xn , n ∈ N, et X sont des variables aléatoires sur un
espace probabilisé (Ω, A, P) à valeurs dans R, éventuellement Rd (munis des
tribus boréliennes).

1 Convergence en probabilité
Définition 1 (Convergence en probabilité). Une suite Xn , n ∈ N, de variables
aléatoires réelles converge en probabilité vers une variable aléatoire X si pour
tout ε > 0, 
lim P |Xn − X| ≥ ε = 0.
n→∞

Si | · | désigne le module sur C, ou la norme euclidienne sur Rd (ou tout


autre norme), la définition est donc identique pour des vecteurs aléatoires. En
considérant la distance d(Xn , X) la définition s’applique de la même façon à
des variables aléatoires à valeurs dans un espace métrique (E, d).
L’inégalité de Markov montre que pour tout p > 0, et tout ε > 0,
1
P |Xn − X| ≥ ε ≤ p E |Xn − X|p .
 
ε
Il est clair ainsi que si la suite Xn , n ∈ N, converge vers X dans Lp , alors
elle converge en probabilité. L’implication ayant lieu pour tout p > 0, cette
observation conduit parfois à qualifier la convergence en probabilité comme la
convergence dans L0 . Mais la convergence en probabilité est strictement plus
faible que la convergence dans Lp , p > 0, comme le montre l’exemple de la
1
suite de variables aléatoires Xn , n ∈ N, de lois de Bernoulli P(Xn = n p ) = n1 ,

2
P(Xn = 0) = 1 − n1 , pour laquelle E(|Xn |p ) = 1 pour tout n ∈ N, mais conver-
geant toutefois en probabilité vers la variable aléatoire X = 0 car
P(|Xn | ≥ ε) = n1 pour tout n ≥ εp > 0.
La convergence en probabilité est donc une conséquence de la convergence
dans Lp (pour un p > 0). Elle est aussi plus faible que la convergence presque
sûre puisque, comme étudié dans la Leçon 17, Xn , n ∈ N, converge presque
sûrement vers X équivaut à dire que pour tout ε > 0,

lim P sup |Xn − X| ≥ ε = 0
m→∞ n≥m

(et {|Xm − X| ≥ ε} ⊂ {supn≥m |Xn − X| ≥ ε}). Il sera mis en évidence dans


le Paragraphe 3 que l’implication est stricte.

Les remarques élémentaires suivantes sont souvent utiles.


D’abord, dans beaucoup d’exemples d’illustration, il sera question de suites
Xn , n ∈ N, convergeant en probabilité vers 0. Il s’agit donc tout simplement de
la convergence vers la variable aléatoire X = 0 (ou seulement presque sûrement
égale à 0), exprimée par limn→∞ P(|Xn | ≥ ε) = 0 pour tout ε > 0.
Par décroissance, il suffit de vérifier la propriété de la définition pour tout
0 < ε ≤ ε0 pour un ε0 > 0, par exemple ε0 = 1. Il est équivalent de considérer
P(|Xn − X| ≥ ε) ou P(|Xn − X| > ε) (puisque ε > 0 est arbitraire), et il suffit
de démontrer que 
lim sup P |Xn − X| ≥ ε = 0
n→∞

(puisque les probabilités sont positives).


D’après la définition de la limite d’une suite de nombres réels, dire que Xn
converge en probabilité vers X signifie que, pour chaque ε > 0, pour tout η > 0,
il existe n0 (= n0 (ε, η)) tel que si n ≥ n0 ,

P |Xn − X| ≥ ε ≤ η.

3
Il peut être commode pour des illustrations d’observer qu’il est possible de
choisir η = ε dans cette description. Autrement dit, Xn converge en probabilité
vers X si pour tout ε > 0, il existe n0 (= n0 (ε)) tel que pour tout n ≥ n0 ,

P |Xn − X| ≥ ε ≤ ε.

En effet, si η > 0 est un autre paramètre positif, soit η ≥ ε ce qui fournit la


première formulation, soit η ≤ ε, et alors
 
P |Xn − X| ≥ ε ≤ P |Xn − X| ≥ η ≤ η

pour tout n ≥ n0 (η). D’où l’affirmation pour n ≥ max(n0 (ε), n0 (η)).

2 Distance en probabilité
La convergence en probabilité peut être décrite à travers une distance sur
l’espace des variables aléatoires.
Pour X et Y deux variables aléatoires réelles sur (Ω, A, P), poser

D(X, Y ) = E min |X − Y |, 1 .

Cette expression a une similitude avec la distance induite par la norme L1 : le mi-
nimum avec la constante 1 assure l’intégrabilité (toute autre valeur strictement
positive ferait l’affaire). À l’image de la définition de convergence en probabi-
lité, D(X, Y ) se définit de la même manière pour des vecteurs aléatoires (voire
des variables aléatoires à valeurs dans un espace métrique). D’autres choix sont
possibles pour une définition de distance en probabilité à travers une distance
|X−Y | 
bornée sur R équivalente à la distance usuelle, comme par exemple E 1+|X−Y | .
La fonctionnelle D vérifie l’inégalité triangulaire. En effet, si a, b, c sont des
réels,   
min |a − b|, 1 ≤ min |a − c|, 1 + min |c − b|, 1 .

4
Il n’y a rien à démontrer si |a−c| ≥ 1 ou |c−b| ≥ 1 (car alors le membre de droite
est toujours plus grand que 1). Dans le cas contraire, l’inégalité triangulaire
habituelle exprime que

min |a − b|, 1 ≤ |a − b| ≤ |a − c| + |c − b|

ce qui fournit le résultat. Cette inégalité appliquée à a = X(ω), b = Y (ω),


c = Z(ω) pour tout ω ∈ Ω, où X, Y, Z sont trois variables aléatoires réelles,
puis intégrée par rapport à P, établit l’inégalité triangulaire annoncée

D(X, Y ) ≤ D(X, Z) + D(Z, Y ).

Par ailleurs, D(X, Y ) ≥ 0, D(X, Y ) = D(Y, X) et D(X, X) = 0. Enfin, si


D(X, Y ) = 0, alors min(|X −Y |, 1) = 0 presque sûrement, soit X = Y presque
sûrement.
Ainsi D définit une distance sur l’espace des variables aléatoires quotienté
par la relation d’équivalence X = Y presque sûrement (comme dans la défini-
tion des espaces Lp ). Cette distance décrit la convergence en probabilité.

Proposition 2. Une suite Xn , n ∈ N, converge en probabilité vers X si et


seulement si
lim D(Xn , X) = 0.
n→∞

Démonstration. Une implication reproduit la comparaison avec la convergence


dans les espaces Lp . En effet, si 0 < ε ≤ 1, pour tout n ∈ N,
  
P |Xn − X| ≥ ε = P min |Xn − X|, 1 ≥ ε
1 
≤ E min |Xn − X|, 1
ε
d’après l’inégalité de Markov. Ainsi, si limn→∞ D(Xn , X) = 0, alors Xn converge
en probabilité vers X.

5
La réciproque est plus intéressante. Soit ε > 0 ; en décomposant l’espérance
par la relation de Chasles, pour tout n ∈ N,
E min(|Xn − X|, 1) = E 1{|Xn −X|≥ε} min(|Xn − X|, 1)
 

+ E 1{|Xn −X|<ε} min(|Xn − X|, 1) .




La première espérance peut être majorée par P(|Xn − X| ≥ ε) (en utilisant que
min(|Xn −X|, 1) ≤ 1), la seconde par ε (en utilisant que P(|Xn −X| < ε) ≤ 1).
Ainsi  
E min(|Xn − X|, 1) ≤ P |Xn − X| ≥ ε + ε.
Sous l’hypothèse de convergence en probabilité de Xn vers X, pour tout η > 0,
il existe n0 (= n0 (ε, η)) tel que si n ≥ n0 , P(|Xn − X| ≥ ε) ≤ η. Ainsi, si
n ≥ n0 , 
E min |Xn − X|, 1 ≤ η + ε.
Comme ε > 0 et η > 0 sont arbitraires (choisir η = ε éventuellement), la
conclusion s’ensuit. La proposition est donc établie.

3 Comparaison avec la convergence presque sûre


Comme il en a déjà été fait état, si une suite Xn , n ∈ N, (de variables
aléatoires réelles) converge presque sûrement vers (une variable aléatoire réelle)
X, c’est-à-dire 
lim P sup |Xn − X| ≥ ε = 0
m→∞ n≥m
pour tout ε > 0, elle converge également en probabilité puisque
 
P |Xm − X| ≥ ε ≤ P sup |Xn − X| ≥ ε .
n≥m

Bien entendu la réciproque n’est pas vraie en général. En fait, la différence


entre les deux modes de convergence est similaire à la différence entre la conver-
gence d’une série et la convergence vers 0 de son terme général. L’exemple sui-
vant, déjà étudié dans la Leçon 17, le démontre clairement. Soit Xn , n ∈ N,

6
une suite de variables aléatoires de loi de Bernoulli sur {0, 1} de paramètres
de succès respectifs pn , n ∈ N, pn ∈ ]0, 1[. Autrement dit P(Xn = 1) = pn ,
P(Xn = 0) = 1 − pn , n ∈ N. En supposant que pn → 0, il est naturel d’envisa-
ger la convergence de la suite Xn , n ∈ N, vers la variable aléatoire X = 0 (de
loi de Dirac en 0). Pour tout 0 < ε ≤ 1,

P |Xn | ≥ ε) = P(Xn = 1) = pn

de sorte que Xn converge en probabilité vers la variable aléatoire X = 0 sous


l’hypothèse limn→∞ pn = 0. Maintenant, si les variables Xn , n ∈ N, sont in-
dépendantes, le critère basé sur le lemme de Borel-Cantelli examiné dans la
Leçon 17 indique que la suite Xn , n ∈ N, converge presque sûrement vers 0 si
et seulement si, pour tout 0 < ε ≤ 1
X X
P |Xn | ≥ ε) = pn < ∞.
n∈N n∈N

Il est donc facile de discriminer sur cet exemple la convergence en probabilité


et la convergence presque sûre.
Alors que les convergences en probabilité et dans Lp sont métriques, il peut
être observé que la convergence presque sûre ne peut pas être décrite par une
distance (sinon l’Exercice 4 montrerait qu’elle est équivalente à la convergence
en probabilité).

4 Bilan de convergences
La comparaison entre les trois modes de convergence, convergence presque
sûre, convergence dans Lp (p > 0) et convergence en probabilité, pour une
suite Xn , n ∈ N, de variables aléatoires (réelles) vers une variable aléatoire X,
s’établit comme suit, à l’aide des implications et des exemples divulgués dans
les leçons et paragraphes précédents :

7
Convergence presque sûre et convergence dans Lp ne sont pas com-
parables. Le théorème de convergence dominée fournit toutefois une condition
pour qu’une suite convergeant presque sûrement converge aussi dans Lp .

La convergence presque sûre entraîne la convergence en probabilité


(la réciproque est fausse en général).

La convergence dans Lp (p > 0) entraîne la convergence en probabilité


(la réciproque est fausse en général).

8
5 Complément : Intégrabilité uniforme
Le théorème suivant est une version simplifiée d’un énoncé relatif à la notion
d’intégrabilité uniforme. Il fournit une forme améliorée du théorème de conver-
gence dominée en remplaçant l’hypothèse de domination par une condition plus
souple (accessoirement aussi en remplaçant la convergence presque sûre par la
convergence en probabilité).

Théorème 3. Sur un espace probabilisé (Ω, A, P), soit Xn , n ∈ N, une suite de


variables aléatoires réelles convergeant en probabilité vers une variable aléatoire
réelle X ; soit également p > 0 ; si, pour un r > p,

sup E |Xn |r < ∞,



n∈N

alors Xn , n ∈ N, converge vers X dans Lp , autrement dit

lim E |Xn − X|p = 0.



n→∞

Démonstration. La première étape consiste à s’assurer que E(|X|r ) < ∞. C’est


une conséquence du lemme de Fatou (Lemme 2, Leçon 3) ; en effet, d’après
l’Exercice 4, il existe une sous-suite d’entiers nk , k ∈ N, le long de laquelle Xnk
converge vers X presque sûrement, et donc aussi, par continuité, |Xnk |r → |X|r
presque sûrement. Mais alors, par le lemme de Fatou donc,

E |X|r = E lim inf |Xnk |r ≤ lim inf E |Xnk |r


  
k→∞ k→∞

et le membre de droite est fini par hypothèse. Grâce à cette affirmation et l’in-
égalité triangulaire, il découle de l’hypothèse qu’il existe une constante C > 0
telle que
sup E |Xn − X|r ≤ C.

n∈N

9
Soit alors ε > 0 fixé ; par la relation de Chasles, pour tout entier n,

E |Xn − X|p = E 1{|Xn −X|≤ε} |Xn − X|p + E 1{|Xn −X|≥ε} |Xn − X|p
  

≤ εp + E 1{|Xn −X|≥ε} |Xn − X|p



1− pr   p
≤ εp + P |Xn − X| ≥ ε E |Xn − X|r r


où la dernière inégalité résulte d’une application de l’inégalité de Hölder (au


r
couple d’exposants conjugués ( pr , r−p )). Avec la première étape, pour tout n ∈ N,
p 1− pr
E |Xn − X|p ≤ εp + C r P |Xn − X| ≥ ε

.

Puisque la suite Xn , n ∈ N, converge en probabilité vers X, il existe n0 = n0 (ε)


tel que si n ≥ n0 , alors P(|Xn − X| ≥ ε) ≤ ε. Ainsi, si n ≥ n0 ,
p p
E |Xn − X|p ≤ εp + C r ε1− r .


p p
Si η > 0, ε > 0 peut être choisi tel que εp + C r ε1− r ≤ η, de sorte que
E(|Xn − X|p ) ≤ η pour tout n ≥ n0 , ce qui assure la convergence dans Lp
annoncée. La démonstration est terminée.

L’exemple suivant est instructif. Soient Xn , n ∈ N, des variables aléatoires


3
indépendantes telles que P(Xn = n 2 ) = n12 , P(Xn = 0) = 1− n12 , n ∈ N. D’après
le critère de Borel-Cantelli, la suite Xn , n ∈ N converge presque sûrement
vers 0. Comme E(Xn ) = √1n , n ∈ N, il n’est pas nécessaire d’invoquer un
théorème pour assurer que E(Xn ) → 0. Il peut être toutefois observer que
4
supn∈N E(|Xn | 3 ) = 1 < ∞, alors que la suite Xn , n ∈ N, ne peut être dominée
par une variable intégrable. En effet, pour tout m ∈ N,
  3 
E sup |Xn | ≥ E sup Xn ≥ m 2 P sup Xn 6= 0
n∈N n≥m n≥m

3
(car si supn≥m Xn n’est pas nul, il est plus grand que m 2 ). Mais, par indépen-

10
dance des variables Xn , n ∈ N,
 
P sup Xn 6= 0 = 1 − P sup Xn = 0
n≥m n≥m
Y 1
= 1− 1− 2
n≥m
n
1
≥ 1 − e− m−1

(m ≥ 2) par prise du logarithme, de sorte que


3
lim m 2 P(sup Xn 6= 0) = ∞.
m→∞ n≥m

Donc E(supn∈N |Xn |) = ∞ et le théorème de convergence dominée ne s’applique


pas, au contraire du Théorème 3.
Comme mentionné en introduction, l’énoncé précédent est une forme affai-
blie d’un théorème d’intégrabilité uniforme. Pour p = 1, la condition

sup E |Xn |r < ∞,



n∈N

pour un r > 1 peut en effet être remplacée par l’existence d’une fonction
(borélienne) G : R+ → R+ vérifiant limt→∞ G(t)
t = ∞ telle que

sup E G |Xn | < ∞.
n∈N

La démonstration est en fait à peine modifiée. Mais le point important est que
cette dernière condition devient en fait aussi nécessaire (à la convergence de
Xn , n ∈ N, dans L1 ). Il s’agit du Théorème de de La Vallée-Poussin 1

1. Charles-Jean de La Vallée Poussin, mathématicien belge (1866–1962).

11
Exercices

(Une étoile * désignera une question de difficulté supérieure.)

Exercice 1. Reprendre l’Exercice 1, Leçon 17, en incluant la convergence


en probabilité dans la discussion.

Exercice 2. Soit Xn , n ∈ N, une suite de variables aléatoires de même loi


uniforme U(0, 1) sur [0, 1] ; démontrer que
1
a) nXn → 0 en probabilité ;
Xn
b) n → 0 presque sûrement ;
1
c) n2 Xn → 0 presque sûrement.
On suppose en outre les variables Xn , n ∈ N, mutuellement indépendantes.
Établir que
1
d) nXn ne converge pas presque sûrement.

Exercice 3. Soient Xn , Yn , n ∈ N, des suites de variables aléatoires réelles,


ainsi que des variables aléatoires réelles X et Y , définies sur un espace proba-
bilisé (Ω, A, P).
a) Si les suites Xn , n ∈ N, et Yn , n ∈ N, convergent dans Lp , p ≥ 1, vers des
variables aléatoires X et Y respectivement, démontrer que la suite Xn + Yn ,
n ∈ N, converge dans Lp vers X + Y .
La suite de l’exercice a pour but de démontrer que la propriété de stabilité
précédente est encore vérifiée pour la convergence en probabilité.
b) Si U et V sont des variables aléatoires et t ∈ R, démontrer que

P(U + V ≥ 2t) ≤ P(U ≥ t) + P(V ≥ t).

c) Si les suites Xn , n ∈ N, et Yn , n ∈ N, convergent en probabilité vers X et Y

12
respectivement, démontrer que la suite Xn + Yn , n ∈ N, converge en probabilité
vers X + Y .
d*) Dans le cadre de la question précédente, démontrer que la suite Xn Yn ,
n ∈ N, converge en probabilité vers XY .

Exercice 4. Soit une suite Xn , n ∈ N, de variables aléatoires convergeant


en probabilité vers une variable aléatoire X.
a) Construire par récurrence une suite strictement croissante d’entiers nk , k ∈ N,
telle que, pour tout k ≥ 1,

P |Xnk − X| ≥ k1 ≤ 21k .


P
b) Démontrer que pour tout ε > 0, k≥1 P(|Xnk − X| ≥ ε) < ∞. En conclure
que la suite Xnk , k ∈ N, converge vers X presque sûrement.

Exercice 5. Pour toute variable aléatoire Z ≥ 0, démontrer que pour tout


t > 0,
1
P(Z ≥ t) ≤ E Z 1{Z≥t} .

t
Soit à présent X une variable aléatoire réelle de carré intégrable.
a) Démontrer que
lim E X 2 1{|X|≥t} = 0.

t→∞
Déduire de la question préliminaire que pour tout ε > 0,
√ 
lim n P |X| ≥ ε n = 0.
n→∞

b) Soient Xn , n ≥ 1, de même loi que X. En utilisant le question précédente,


que peut-on dire de la convergence de la suite de variables aléatoires Yn =
√1 max(X1 , . . . , Xn ), n ≥ 1, lorsque n → ∞ ?
n

13
Exercice 6 (Polynômes de Bernstein.) Soit une f : [0, 1] → R une fonction
continue et soit Xn une variable aléatoire sur (Ω, A, P) suivant une loi binomiale
B(n, x) de taille n ≥ 1 et de paramètre x ∈ [0, 1]. On note Tn = Xnn .
a) Montrer que Qn (x) = E(f (Tn )) est un polynôme (en x), appelé polynôme
de Bernstein (de degré n).
b) Calculer E(Tn ) et Var(Tn ).
c) Établir que |f (x) − Qn (x)| ≤ E(|f (Tn ) − f (x)|).
1
d) Pour η > 0, poser A = {|Tn − x| ≤ η} et montrer que P(Ac ) ≤ η2 n .
e) Invoquer un théorème pour affirmer que pour tout ε > 0, il existe η = η(ε) > 0
tel que si u, v ∈ [0, 1] et |u − v| ≤ η, alors |f (u) − f (v)| ≤ ε.
f) Pour ε > 0 et η = η(ε) > 0 comme dans la question précédente, décomposer,
pour tout x ∈ [0, 1], E(|f (Tn ) − f (x)|) suivant A et Ac pour obtenir que

2M (f )
f (x) − Qn (x) ≤ ε +
η2n
où M (f ) = supt∈[0,1] |f (t)|.
g) Déduire de la question précédente que pour tout ε > 0, il existe un entier
n = n(ε) tel que
sup f (x) − Qn (x) ≤ 2ε.
x∈[0,1]

h) Quel théorème vient-il d’être démontré ?

14

Vous aimerez peut-être aussi