Espérance et variance
Cours de É. Bouchet – PCSI
19 mai 2025
Table des matières
1 Espérance d’une variable aléatoire 2
1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Espérance des lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Formule de transfert et espérance du produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Variance, écart-type et covariance 6
2.1 Variance, écart-type et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Variance des lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Covariance et variables aléatoires décorrélées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Inégalités probabilistes 9
3.1 Inégalité de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2 Inégalité de Bienaymé-Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1
Dans tout le chapitre, on se place dans un espace probabilisé fini (Ω, P ).
1 Espérance d’une variable aléatoire
1.1 Définition et premières propriétés
Définition 1.1 (Espérance)
Soit X une variable aléatoire réelle ou complexe. On appelle espérance de X la valeur
X
E(X) = xP (X = x).
x∈X(Ω)
Lorsque E(X) = 0, on dit que la variable est centrée.
Remarque. L’espérance donne une moyenne des valeurs atteintes par X, c’est donc un indicateur de position.
Si on décale toutes les valeurs de X, l’espérance sera décalée en conséquence.
1 1
Exemple. Soit X une variable aléatoire qui vérifie X(Ω) = [[−1, 1]], P (X = −1) = 4, P (X = 0) = 2 et
P (X = 1) = 14 . Alors E(X) = − 14 + 0 + 14 = 0, donc X est une variable centrée.
Exemple. Soit A un ensemble fini non vide et X une variable aléatoire telle que X ∼ U(A). On a :
X 1 X
E(X) = xP (X = x) = x.
Card(A)
x∈A x∈A
Proposition 1.2 (Expression alternative)
X
Soit X une variable aléatoire réelle ou complexe. Alors E(X) = X(ω)P ({ω}).
ω∈Ω
Démonstration. ({X = x})x∈X(Ω) forme un système complet d’événements, donc :
X X X X X X
X(ω)P ({ω}) = X(ω)P ({ω}) = xP ({ω}) = xP ({X = x}) = E(X).
ω∈Ω x∈X(Ω) ω∈{X=x} x∈X(Ω) ω∈{X=x} x∈X(Ω)
Remarque. Cette forme servira peu en exercices, mais sera très utile pour démontrer les résultats du cours.
Proposition 1.3 (Linéarité)
Soit X et Y deux variables aléatoires réelles ou complexes et λ, µ deux constantes, alors
E(λX + µY ) = λE(X) + µE(Y ).
Démonstration. L’expression alternative donne directement :
X X X
E(λX + µY ) = (λX + µY )(ω)P ({ω}) = λ X(ω)P ({ω}) + µ Y (ω)P ({ω}) = λE(X) + µE(Y ).
ω∈Ω ω∈Ω ω∈Ω
Remarque. En particulier, l’espérance de la somme est égale à la somme des espérances.
2
Exercice 1. On lance deux dés, et on note S la somme de leurs résultats. Déterminer l’espérance de S.
Solution : On ne cherche surtout pas à calculer la loi de S (qui n’est pas demandée).
On note X1 et X2 les résultats des dés, alors S = X1 + X2 , X1 ∼ U([[1, 6]]) et X2 ∼ U([[1, 6]]). Cela donne :
6 6
X X k 1 6×7 7
E(X1 ) = kP (X1 = k) = = × = ,
6 6 2 2
k=1 k=1
7 7
de même pour E(X2 ). Donc E(S) = E(X1 ) + E(X2 ) = 2 + 2 = 7.
Proposition 1.4 (Inégalité triangulaire)
Soit X une variable aléatoire réelle ou complexe, alors |E(X)| ⩽ E(|X|).
Démonstration. Il suffit d’utiliser l’expression alternative, l’inégalité triangulaire sur les sommes et la positivité de
la probabilité :
X X X
|E(X)| = X(ω)P ({ω}) ⩽ |X(ω)P ({ω})| = |X(ω)| P ({ω}) = E(|X|).
ω∈Ω ω∈Ω ω∈Ω
Proposition 1.5 (Positivité)
Soit X une variable aléatoire réelle positive. Alors E(X) ⩾ 0.
Démonstration. Puisque X est positive, ∀ω ∈ Ω, X(ω)P ({ω}) ⩾ 0, donc par passage à la somme :
X
E(X) = X(ω)P ({ω}) ⩾ 0.
ω∈Ω
Proposition 1.6 (Croissance)
Soit X et Y deux variables aléatoires réelles. Si X ⩽ Y , alors E(X) ⩽ E(Y ).
Démonstration. Comme Y − X est une variable aléatoire positive, alors E(Y − X) ⩾ 0. La linéarité donne alors
E(Y ) − E(X) ⩾ 0, donc E(Y ) ⩾ E(X).
Remarque. En particulier, si X est à valeurs dans un intervalle I, E(X) ∈ I.
1.2 Espérance des lois usuelles
Proposition 1.7 (Espérance d’une variable aléatoire constante)
Soit X une variable aléatoire constante de valeur m, alors E(X) = m.
Démonstration. Un retour à la définition donne directement E(X) = m × P (X = m) = m × 1 = m.
Proposition 1.8 (Espérance d’une variable aléatoire de Bernoulli)
Soit p ∈ [0, 1]. Si X est une variable aléatoire telle que X ∼ B(p), alors E(X) = p.
Démonstration. Un retour à la définition donne directement E(X) = 1P (X = 1) + 0P (X = 0) = p.
3
Remarque. Soit A ∈ P(Ω), le cas particulier de la variable indicatrice donne E(1A ) = P (A), puisqu’on sait que
1A ∼ B(P (A)).
Proposition 1.9 (Espérance d’une variable aléatoire binomiale)
Soit p ∈ [0, 1] et n ∈ N∗ . Si X est une variable aléatoire telle que X ∼ B(n, p), alors E(X) = np.
Démonstration. On peut aborder la preuve de deux manières différentes.
— Un retour à la définition donne :
n
X
E(X) = kP (X = k)
k=0
n
X n k
=0+ k p (1 − p)n−k
k
k=1
n
X n n−1 k
= k p (1 − p)n−k
k k−1
k=1
n−1
X n − 1
=n pi+1 (1 − p)n−1−i en posant i = k − 1
i
i=0
n−1
X n − 1
= np pi (1 − p)n−1−i
i
i=0
E(X) = np par formule du binôme de Newton,
— On peut aussi introduire des variables aléatoires indépendantes X1 , . . ., Xn de loi B(p). Alors X1 + · · · + Xn
et X ont même loi, ce qui donne :
n n n
!
X X X
E(X) = E Xi = E(Xi ) = p = np.
i=1 i=1 i=1
1.3 Formule de transfert et espérance du produit
Proposition 1.10 (Formule de transfert)
Soit X une variable aléatoire réelle ou complexe et g une fonction définie sur X(Ω). Alors :
X
E(g(X)) = g(x)P (X = x).
x∈X(Ω)
Démonstration. ({X = x})x∈X(Ω) forme un système complet d’événements, donc :
X
E(g(X)) = g(X(ω))P ({ω})
ω∈Ω
X X
= g(X(ω))P ({ω})
x∈X(Ω) ω∈{X=x}
X X
= g(x)P ({ω})
x∈X(Ω) ω∈{X=x}
X
E(g(X)) = g(x)P (X = x).
x∈X(Ω)
4
Exercice 2. Soit X une variable aléatoire de loi U([[1, 6]]). Déterminer E(X 2 ).
Solution : D’après la formule de transfert,
6 6
X 1 X 2 1 6 × 7 × 13 91
E(X 2 ) = k 2 P (X = k) = k = = .
6 6 6 6
k=1 k=1
Remarque. La formule de transfert s’applique en particulier aux couples (ou n-uplets) de variables aléatoires. Si
X et Y sont des variables aléatoires et g est une fonction définie sur X(Ω) × Y (Ω), on a par exemple :
X X
E(g(X, Y )) = g(x, y)P (X = x, Y = y).
x∈X(Ω) y∈Y (Ω)
Proposition 1.11 (Cas de variables aléatoires indépendantes)
Soit X et Y deux variables aléatoires réelles ou complexes. Si elles sont indépendantes, alors
E(XY ) = E(X)E(Y ).
Démonstration. D’après la formule de transfert, puis par indépendance des variables aléatoires,
X X
E(XY ) = xyP (X = x, Y = y)
x∈X(Ω) y∈Y (Ω)
X X
= xyP (X = x)P (Y = y)
x∈X(Ω) y∈Y (Ω)
X X
= xP (X = x) yP (Y = y)
x∈X(Ω) y∈Y (Ω)
X
= xP (X = x)E(Y )
x∈X(Ω)
E(XY ) = E(X)E(Y ).
Remarque. Ce résultat s’étend sans difficulté au cas de n variables aléatoires indépendantes.
Remarque. On peut utiliser ce résultat pour montrer que deux variables aléatoires ne sont pas indépendantes :
̸ E(X)E(Y ).
il suffit de vérifier que E(XY ) =
Exercice 3. Soient X1 , X2 et X3 indépendantes, suivant des lois de Bernoulli de paramètre p ∈]0, 1[. Montrer que
les variables aléatoires Y1 = X1 X2 et Y2 = X2 X3 ne sont pas indépendantes.
Solution : L’indépendance des Xi donne E(Y1 ) = E(X1 )E(X2 ) = p2 et E(Y2 ) = E(X2 )E(X3 ) = p2 . Par ailleurs,
X22 = X2 puisque X2 ne prend que les valeurs 0 et 1, donc :
E(Y1 Y2 ) = E(X1 X2 X2 X3 ) = E(X1 X2 X3 ) = E(X1 )E(X2 )E(X3 ) = p3 ̸= p4 = E(Y1 )E(Y2 ),
où p3 ̸= p4 car p ̸= 0 et p ̸= 1. Donc Y1 et Y2 ne sont pas indépendantes.
Remarque. Attention, ce résultat n’est pas une équivalence : la relation E(XY ) = E(X)E(Y ) ne suffit pas à
garantir l’indépendance des variables.
Exemple. Soit Z ∼ U({−1, 1}) et Y une variable aléatoire indépendante de Z. Alors, Y et X = ZY ne sont
clairement pas indépendantes (elles ont même module), pourtant le lemme des coalitions la relation E(Z) = 0 et
l’indépendance de Z et Y donnent :
E(XY ) = E(ZY 2 ) = E(Z)E(Y 2 ) = 0 = E(Y )E(Z)E(Y ) = E(Y )E(X).
5
2 Variance, écart-type et covariance
2.1 Variance, écart-type et premières propriétés
Définition 2.1 (Variance, écart-type)
Soit X une variable aléatoire réelle. On appelle variance de X la valeur V (X) = E (X − E(X))2 et
p
écart-type de X la valeur σ(X) = V (X). Lorsque V (X) = 1, on dit que la variable est réduite.
Remarque. Contrairement au cas de l’espérance, le programme ne s’intéresse pas à la variance de variables
aléatoires complexes. Cela permet de garantir que la variance sera toujours positive (puisque c’est l’espérance
d’une fonction positive).
Remarque. La variance (ou l’écart-type) donnent une idée d’à quel point les valeurs de X s’écartent de leur valeur
moyenne, c’est donc un indicateur de dispersion. Si on décale toutes les valeurs de X, la variance ne sera pas
modifiée.
Proposition 2.2 (Variance d’une combinaison linéaire)
Soient (a, b) ∈ R2 et X une variable aléatoire réelle, alors V (aX + b) = a2 V (X).
Démonstration. Il suffit d’utiliser la définition de la variance et la linéarité de l’espérance :
V (aX + b) = E (aX + b − E(aX + b))2
= E (aX + b − aE(X) − b)2
= E (a(X − E(X)))2
= a2 E((X − E(X))2 )
V (aX + b) = a2 V (X)
p
Remarque. On en déduit que σ(aX + b) = a2 V (X) = |a| σ(X).
X − E(X)
Remarque. Soit X une variable aléatoire réelle telle que σ(X) > 0. On pose Z = , les propriétés de
σ(X)
l’espérance et la variance donnent alors :
E(X) − E(X) V (X) V (X)
E(Z) = =0 et V (Z) = 2
= = 1.
σ(X) σ(X) V (X)
Z est donc une variable aléatoire centrée réduite.
Proposition 2.3 (Formule de König-Huygens)
Soit X une variable aléatoire réelle. Alors : V (X) = E(X 2 ) − E(X)2 .
Démonstration. Par linéarité de l’espérance,
V (X) = E (X − E(X))2
= E(X 2 + E(X)2 − 2E(X)X)
= E(X 2 ) + E(X)2 − (2E(X))E(X)
= E(X 2 ) + E(X)2 − 2E(X)2
V (X) = E(X 2 ) − E(X)2
6
Proposition 2.4 (Cas de la variance nulle)
Soit X une variable aléatoire réelle. Alors : V (X) = 0 ⇐⇒ P (X = E(X)) = 1.
Remarque. Dans le cas d’un univers Ω fini, P (X = E(X)) = 1 signifie que X est une variable aléatoire constante,
qui vaut E(X).
X
Démonstration. Par formule de transfert et définition de la variance, V (X) = (x − E(X))2 P (X = x).
x∈X(Ω)
Les termes de cette somme sont tous à valeurs positives, on a donc :
X
V (X) = 0 ⇐⇒ (x − E(X))2 P (X = x) = 0
x∈X(Ω)
⇐⇒ ∀x ∈ X(Ω), (x − E(X))2 P (X = x) = 0
⇐⇒ ∀x ∈ X(Ω), (x − E(X))2 = 0 ou P (X = x) = 0
⇐⇒ ∀x ∈ X(Ω) \ {E(X)}, P (X = x) = 0
V (X) = 0 ⇐⇒ P (X = E(X)) = 1,
X
où la dernière équivalence fonctionne car P (X = x) = 1.
x∈X(Ω)
2.2 Variance des lois usuelles
Proposition 2.5 (Variance d’une variable aléatoire de Bernoulli)
Soit p ∈ [0, 1]. Si X est une variable aléatoire telle que X ∼ B(p), alors V (X) = p(1 − p).
Démonstration. Un retour à la définition et la formule de transfert donnent :
V (X) = (1 − E(X))2 P (X = 1) + (0 − E(X))2 P (X = 0)
= (1 − p)2 p + p2 (1 − p)
= p(1 − p)(1 − p + p)
V (X) = p(1 − p).
Proposition 2.6 (Variance d’une variable aléatoire binomiale)
Soit p ∈ [0, 1] et n ∈ N∗ . Si X est une variable aléatoire telle que X ∼ B(n, p), alors V (X) = np(1 − p).
Démonstration. La formule de transfert donne :
n
2 n
X
2
E(X ) = k pk (1 − p)n−k
k
k=0
n−1
X n − 1 i+1 n−1−i n
=0+n (i + 1) p (1 − p) en simplifiant puis en posant i = k − 1
i k
i=0
n−1
!
X n − 1
= np i pi (1 − p)n−1−i + (p + 1 − p)n−1 par linéarité et binôme de Newton
i
i=0
n−1
!
X n − 1 n − 2
i n−1−i
= np 0 + i p (1 − p) + np
i i−1
i=1
7
n−2
!
X
n−2 k
= n(n − 1)p2 p (1 − p)n−2−k + np en posant k = i − 1
k
k=0
= n(n − 1)p2 + np par binôme de Newton
2
E(X ) = np(pn − p + 1).
Par formule de König-Huygens, on trouve alors V (X) = E(X 2 ) − E(X)2 = np(pn − p + 1) − (np)2 = np(1 − p).
Une preuve alternative basée sur des sommes de variables aléatoires indépendantes sera vue plus tard dans le
chapitre.
2.3 Covariance et variables aléatoires décorrélées
Définition 2.7 (Covariance)
Soit X et Y deux variables aléatoires réelles. On appelle covariance de X et Y la valeur :
Cov(X, Y ) = E (X − E(X))(Y − E(Y )) .
Lorsque Cov(X, Y ) = 0, on dit que les variables X et Y sont décorrélées.
Remarque. En particulier, Cov(X, X) = V (X) et Cov(X, Y ) = Cov(Y, X).
Proposition 2.8 (Formule de König-Huygens)
Soient X et Y deux variables aléatoires réelles. Alors : Cov(X, Y ) = E(XY ) − E(X)E(Y ).
Démonstration. Un retour à la définition et la linéarité de l’espérance donnent :
Cov(X, Y ) = E((X − E(X))(Y − E(Y )))
= E(XY − E(Y )X − E(X)Y + E(X)E(Y ))
= E(XY ) − E(Y )E(X) − E(X)E(Y ) + E(X)E(Y )
Cov(X, Y ) = E(XY ) − E(X)E(Y )
Remarque. Si X et Y sont deux variables aléatoires indépendantes, on a déjà montré que E(XY ) = E(X)E(Y ),
et donc Cov(X, Y ) = 0. Deux variables aléatoires indépendantes sont donc toujours décorrélées.
La réciproque est fausse, par contre : des variables peuvent être décorrélées sans être indépendantes, pour peu que
E(XY ) = E(X)E(Y ) (cf contre-exemple étudié plus haut).
Proposition 2.9 (Variance d’une somme de variables aléatoires)
Soit X et Y deux variables aléatoires réelles. Alors : V (X + Y ) = V (X) + V (Y ) + 2 Cov(X, Y ).
En particulier, si X et Y sont décorrélées, V (X + Y ) = V (X) + V (Y ).
Démonstration. La définition de la variance et la linéarité de l’espérance donnent :
V (X + Y ) = E (X + Y − E(X + Y ))2
= E (X − E(X) + Y − E(Y ))2
= E (X − E(X))2 + (Y − E(Y ))2 + 2(X − E(X))(Y − E(Y ))
V (X + Y ) = V (X) + V (Y ) + 2 Cov(X, Y ).
En particulier, si X et Y sont décorrélées, V (X + Y ) = V (X) + V (Y ).
8
Remarque. Dans le cas de variables indépendantes, on a donc V (X +Y ) = V (X)+V (Y ). Ce résultat se généralise
naturellement à une somme de n variables aléatoires mutuellement indépendantes.
Remarque. Ce résultat donne une nouvelle manière de calculer la variance de la loi binomiale.
Soit p ∈ [0, 1], n ∈ N∗ et X une variable aléatoire réelle telle que X ∼ B(n, p). On introduit des variables aléatoires
indépendantes X1 , . . ., Xn de loi B(p). Alors X1 + · · · + Xn et X ont même loi, ce qui donne :
n n n
!
X X X
V (X) = V Xi = V (Xi ) = p(1 − p) = np(1 − p).
i=1 i=1 i=1
3 Inégalités probabilistes
3.1 Inégalité de Markov
Proposition 3.1 (Inégalité de Markov)
E (X)
Soit X une variable aléatoire réelle positive et λ ∈ R∗+ , alors P (X ⩾ λ) ⩽ .
λ
X
Démonstration. On a P (X ⩾ λ) = P (X = x). La définition de E(X) et la positivité de X donnent donc :
x∈X(Ω)
x⩾λ
X X X X
E(X) = xP (X = x) ⩾ xP (X = x) ⩾ λP (X = x) = λ P (X = xi ).
x∈X(Ω) x∈X(Ω) x∈X(Ω) x∈X(Ω)
x⩾λ x⩾λ x⩾λ
Donc E(X) ⩾ λP (X ⩾ λ). Diviser par λ ∈ R∗+ fournit alors le résultat souhaité.
Variante : on pouvait aussi remarquer que 1{X⩾λ} λ ⩽ 1{X⩾λ} X ⩽ X. La croissance de l’espérance donne alors
directement λP (X ⩾ λ) ⩽ E(X).
Remarque. Les majorations fournies par l’inégalité de Markov sont assez brutales : pour de petites valeurs de λ,
E(X)
λ peut même dépasser 1 ! C’est cependant une première approche intéressante, en attendant de savoir comment
obtenir des bornes plus précises.
Exercice 4. Une entreprise compte 300 employés. Chacun d’eux téléphone en moyenne 6 minutes par heure,
indépendamment des autres. Déterminer un entier N tel que si l’entreprise a N lignes de téléphone, la probabilité
que toutes les lignes soient utilisées au même instant est au plus égale à 41 .
Solution : On pose X la variable aléatoire égale au nombre d’employés qui doivent téléphoner à l’instant étudié.
6 1
X compte le nombre de succès (« l’employé doit téléphoner », de probabilité 60 = 10 ) dans une succession de 300
1 1
expériences indépendantes, donc X ∼ B(300, 10 ). De plus, X est à valeurs positives et E(X) = 300 × 10 = 30. Soit
N ∈ N, l’inégalité de Markov donne alors :
E(X) 30
P (X ⩾ N ) ⩽ = .
N N
30
On cherche donc N tel que N ⩽ 14 , ce qui équivaut à 120 ⩽ N . Disposer de 120 lignes de téléphones suffirait donc.
3.2 Inégalité de Bienaymé-Tchebychev
Proposition 3.2 (Inégalité de Bienaymé-Tchebychev)
V (X)
Soit X une variable aléatoire réelle et ε ∈ R∗+ , alors P (|X − E (X)| ⩾ ε) ⩽ .
ε2
9
Démonstration. La variable (X − E(X))2 est positive, on peut donc lui appliquer l’inégalité de Markov, avec
λ = ε2 ∈ R∗+ :
E (X − E(X))2
2 2 V (X)
P (X − E(X)) ⩾ ε ⩽ 2
= .
ε ε2
Or, (X − E(X))2 ⩾ ε2 ⇐⇒ |X − E(X)| ⩾ ε car ε > 0 et par stricte croissance de la fonction racine carrée sur R+ .
Donc
V (X)
P (|X − E(X)| ⩾ ε) = P (X − E(X))2 ⩾ ε2 ⩽ .
ε2
Remarque. Ici encore, les majorations obtenues sont brutales, mais l’approche reste intéressante.
Exercice 5. On dispose d’une pièce truquée dont la probabilité d’obtention de pile est notée p ∈ [0, 1]. Pour
déterminer p, on lance cette pièce n ∈ N∗ fois et on note F la fréquence d’apparition de pile ainsi obtenue. À partir
de quelle valeur de n la probabilité pour que F soit une approximation de p à 10−2 près est-elle supérieure à 0, 9 ?
Solution : On note N la variable aléatoire égale au nombre de pile obtenu en n lancers. N compte le nombre de
succès (« obtenir pile », de probabilité p) dans une succession de n expériences indépendantes, donc N ∼ B(n, p).
E(N ) V (N ) np(1−p)
Par ailleurs, F = Nn , donc E(F ) = n = np
n = p et V (F ) = n2 = n2
= p(1−p)
n . L’inégalité de Bienaymé-
Tchebychev donne alors :
V (F ) p(1 − p)104
P (|F − p| ⩾ 10−2 ) = P (|F − E(F )| ⩾ 10−2 ) ⩽ = .
10−4 n
On cherche une valeur de n telle que P (|F − p| < 10−2 ) ⩾ 10 9
, ce qui équivaut à 1 − P (|F − p| ⩾ 10−2 ) ⩾ 10
9
puis
−2 1
à P (|F − p| ⩾ 10 ) ⩽ 10 (choisir ici quelles égalités sont strictes ou larges n’a pas d’importance tant qu’on garde
la cohérence du passage au complémentaire).
4
Il suffit donc de déterminer n tel que p(1−p)10
n ⩽ 101
, ce qui équivaut à n ⩾ 105 p(1 − p). Sauf qu’on ne connaît
pas la valeur de p. . . On sait par contre que p ∈ [0, 1] et une étude de p → p(1 − p) sur cet intervalle donne que
5
p(1 − p) ⩽ 14 . Choisir n ⩾ 104 = 25 000 convient donc.
Remarque. Soit n ∈ N∗ et X1 , . . ., Xn desPvariables aléatoires indépendantes de même loi. On note m leur
espérance et σ leur écart-type. Posons Sn = n1 ni=1 Xi leur valeur moyenne. Alors par indépendance et propriétés
de l’espérance et la variance,
n n
1X 1 1 X 1 2 σ2
E(Sn ) = E(Xi ) = nm = m et V (Sn ) = V (Xi ) = nσ = .
n n n2 n2 n
i=1 i=1
Appliquer l’inégalité de Bienaymé-Tchebychev à X1 et à Sn donne alors respectivement : soit ε > 0,
σ2 σ2
P (|X1 − m| ⩾ ε) ⩽ et P (|Sn − m| ⩾ ε) ⩽ .
ε2 nε2
Le n au dénominateur dans cette deuxième inégalité la rend bien plus intéressante : si on part du principe que la
valeur de m est inconnue, plus n augmente, plus Sn représente une approximation fiable de m. Pour estimer la
valeur du paramètre m, utiliser une moyenne de variables indépendantes de même loi est donc très efficace.
10