Université de Manouba Probabilités et Satistiques 1ème année
École Nationale des Sciences A.U: 2023-2024
de l’Informatique TD 5 Sem: I
27-11-2023
Echantillonage-Estimation
Exercice 1. Un fournisseur d’accès à Internet met en place un point locale d’accès, qui
dessert 5000 abonnés. A instant donné, chaque abonné a une probabilité égale à 20%
d’être connecté. Les comportements des abonnés sont supposés indépendants les uns des
autres.
1. On note X la v.a égale au nombre d’abonnés connectés à un instant t . Quelle est
la loi de X? Quelle est son espérance, son écart-type?
2. On pose Y = X−1000
√
800
. Justifier précisément qu’on peut approcher la loi de Y par la
loi normale N (0, 1).
3. Le fournisseur d’accès souhaite savoir combien de connexions simultanées le point
d’accès doit pouvoir gérer pour que sa probabilité d’être saturé à un instant donné
soit inférieur à 2, 5%. En utilisant l’approximation précédente, proposer une valeur
approchée de ce nombre de connexions ( on pourra utiliser une table de la loi nor-
male).
Correction.
1. X : nbre de gens qui sont connectés à l’instant t, on a n = 5000 donc X B(n, p)
avec p = 0.2. Donc E[X]
p = np = 5000 ∗ 0.2 = 1000, V [X] = np(1 − p) = 5000 ∗ 0.2 ∗
0.8 = 800 et σ[X] = V [X] = 28.28.
X − E[X]
2. n = 5000 assez grand, on a p N (0, 1), d’après le T.C.L. Donc Y
V [X]
N (0, 1).
3. Soit N : nbre de connexion pour que la probabilité de saturation soit < 2.5%.Donc,
cherchons N tq P (X > N ) < 0.025 ⇒ P (Y > N√−1000 ) < 0.025 ⇒ 1 − π N√−1000
800 800
< 0.025 ⇒ π N√−1000
800
≥ 0.975 ⇒ π N√−1000
800
≥ π(1.96) d’après la table de la loi
N (0, 1). Comme π est croisssante et après calculs, on trouve N ≥ 1055.4, soit
N = 1056
Exercice 2. Soit X une v.a qui suit la loi de Gamma G(α, λ), α > 0, λ > 0. On rappelle
que la d.d.p de X G(α, λ) s’écrit
λα −λ x α−1
fX (x) = e x 1[0,+∞[ (x).
Γ(α)
1. Montrer que la f.g.m de X s’écrit pour t < λ :
t
MX (t) = (1 − )−α .
λ
α α
2. En déduire que E[X] = λ
et V (X) = λ2
.
1
3. Montrer que la loi exponentielle est un cas particulier de la loi de Gamma.
4. Soit (X1 , X2 , ...., Xn ) un éch. aléa. de la v.a X. Par la méthode des moments,
déterminer des estimateurs pour α et λ.
5. Soit n un entier naturel non nul, on dit que X suit la loi de chi deux à n degrès de
liberté lorsque X G( n2 , 12 ). On écrit X χ2 (n).
(a) Déterminer E[X] et V (X).
(b) Soit X χ2 (20), en utilisant la table de la loi de χ2 ,
i. calculer P (X > 16.27).
ii. déterminer un nombre a tel que P (X ≤ a) = 0.2
6. Montrer que si X1 et X2 sont deux v. a indépendantes telles que X1 χ2 (r1 ) et
X2 χ2 (r2 ) alors X1 + X2 χ2 (r1 + r2 ). Généraliser ce résultat.
7. Montrer que si Z N (0, 1) alors Z 2 χ2 (1).
8. Soit Z1 , Z2 , ...., Z7 un échantillon aléatoire de la distribution normale N (0, 1). On
pose W = Z12 + Z22 + ...... + Z72 , construire un intervalle ]a, b[ tel que
P (a < W < b) = 0.925
Correction.
λα −λ x α−1
1. X G(α, λ), fX (x) = Γ(α)
e x 1[0,+∞[ (x). La f.g.m de X est:
Z +∞
tX
MX (t) = E[e ] = etx fX (x)dx,
0
aprés changement de variable u = (λ − Rt)x ⇒ dx = du/(λ − t) et en utilisant la
+∞
définition de la fonction Gamma Γ(α) = 0 e−u uα−1 avec Γ(1) = 1, on obtient
t
MX (t) = (1 − )−α .
λ
2. E[X] = MX0 (0) = αλ , E[X 2 ] = MX00 (0) = α(α+1)
λ2
, alors V [X] = E[X 2 ] − E[X]2 = α
λ2
.
Donc:
X G(α, λ)
E[X] = αλ
V [X] = λα2 .
λ1 −λ x 1−1
3. X E(λ), alors fX (x) = λe−λx 1[0,+∞[ (x) = e x 1[0,+∞[ (x). Donc X
Γ(1)
G(1, λ)
4. On sait que
E[X] = α
λ
V [X] = α .
λ2
2
D’aprés la méthode des moments, les estimateurs α̂ et λ̂ des paramètres α et λ sont
solutions du système suivant:
α̂
X̄n =
λ̂
2 α̂
Sn−1 =
,
λ̂2
2
avec X̄n la moyenne empirique et Sn−1 la variance empirique corrigée de l’échantillon,
qui représentent respectivement les estimateurs de l’espérance et de la variance de
la v.a X. Tous calculs fait, on trouve:
X̄n2
α̂ =
2
Sn−1
X̄n
λ̂ = .
2
Sn−1
5. X χ2 (n) ⇔ X G( n2 , 21 )
(a) D’après la question 2., E[X] = n et V [X] = 2n
(b) X χ2 (20)
i. D’après la table de la loi de χ2 , on a P (X > Zn,α ) = α avec Zn,α = 16.27
et n = 20, on trouve α = 0.7. Donc P (X > 16.27) = 0.7.
ii. P (X ≤ a) = 0.2 ⇒ P (X ≥ a) = 0.8. D’après la table de la loi χ2 pour
n = 20 et α = 0.8 on trouve a = Z20,0.8 = 14.58
6. Si MX ≡ MY alors X et Y suivent la même loi. On donne X1 χ2 (r1 ) et
X2 χ2 (r2 ), X1 et X2 sont i.i.d. Calculons
MX1 +X2 (t) = E[et(X1 +X2 ) ] = E[etX1 etX2 ) ] = E[etX1 ]E[etX2 ] (1)
= (1 − 2t)r1 /2 (1 − 2t)r2 /2 = (1 − 2t)(r1 +r2 )/2 (2)
= MY (t) (3)
avec Y χ2 (r1 + r2 ). Ce qui impliqe que X1 + X2 χ2 (r1 + r2 ).
n
χ2 (1) alors χ2 (n).
P
Généralement, si on a Xi Xi
i=1
1 −2z 1 2
7. Soit Z N (0, 1) ⇒ fZ (z) = 2π e .
2
FZ 2 (z) = P (Z ≤ z) = 0 si√z ≤ 0. √ √
Si z ≥ 0 ⇒ FZ 2 (z) = P (− z ≤ Z ≤ z) = 2FZ ( z) − 1.
√ 1 12 −1 − 12
On dérive des deux côtés, fZ 2 (z) = √1z fZ ( z) = 2π z e z = fχ2 (1) (z), avec
1 √ 2 2
Γ( 2 ) = π. D’où Z χ (1)
8. Soit (Z1 , Z2 , ...., Zn ) un éch. aléa. de N (0, 1), avec les Zi sont indépendants, Zi
N (0, 1).
⇒ les Zi2 sont indépendants et on a Zi2 χ2 (1) d’après la question précédente.
⇒ W = Z12 + Z22 + .... + Z72 χ2 (7) d’après la question 6.
Cherchons a et b tels que P (a < W < b) = 0.925 P (a < W < b) = P (W >
a) − P (W > b) = 0.925. Donc, cherchons a tq P (W > a) = 0.95 et b tq P (W >
b) = 0.025.
D’après la table statistique de la loi χ2 , on trouve a = Z7,0.95 = 2.17 et b = Z7,0.025 =
16.01
3
Exercice 3. Soit (X1 , X2 , ...., Xn ) un échantillon aléatoire d’une variable aléatoire X
définie sur une population normale de moyenne µ et de variance σ 2 . On pose
n n n
1X 1X 1 X
X̄n = Xi , Sn2 = (Xi − X̄n )2 , 2
Sn−1 = (Xi − X̄n )2
n i=1 n i=1 n − 1 i=1
On admet que X̄n et Sn2 sont indépendantes.
n
1X 2
1. Montrer que Sn2 = Xi − X̄n2 .
n i=1
n 2
X Xi − µ 2 nSn2 √ X̄n − µ 2 (n − 1)Sn−1 √ X̄n − µ 2
2. Montrer que ( ) = 2 +( n ) = 2
+( n ).
i=1
σ σ σ σ σ
X̄n − µ
3. Déterminer la loi de la distribution de la v.a √ .
σ/ n
n
X Xi − µ 2
4. Déterminer la loi de la distribution de la v.a ( ).
i=1
σ
nSn2
5. Déterminer la loi de la distribution de la v.a .
σ2
2
(n − 1)Sn−1
6. Déterminer la loi de la distribution de la v.a .
σ2
2
7. Calculer V (Sn2 ) et V (Sn−1 ).
8. Montrer que X̄n est un estimateur sans biais et convergent de µ.
9. Montrer que Sn2 est un estimateur asymptotiquement sans biais et convergent.
2
10. Montrer que Sn−1 est un estimateur sans biais et convergent de σ 2 .
Correction. (X1 , ...Xn ) éch. aléa. X N (µ, σ 2 ), tels que les v. a. X̄n et Sn2 sont
indépendantes.
n n n
1 1
2 2
Xi − 2Xi X̄n + X̄n = n1
2 2
Xi2 − X̄n2 .
P P P
1. Sn = n (Xi − X̄n ) = n
i=1 i=1 i=1
n
nSn2 1 X 2 n
2. 2
= 2
Xi − 2 X̄n2 (1). D’autre part,
σ σ i=1 σ
√ X̄n − µ 2 n 2n n
( n ) = 2 X̄n2 − 2 X̄n µ + 2 µ2 (2).
σ n
σ σ σ n
1 X 2 2n n 2 1 X 2
⇒(1)+(2)= 2 Xi − 2 X̄n µ + 2 µ = 2 Xi − 2µXi + µ2
σ i=1 σ σ σ i=1
n
X Xi − µ
= ( )2 cqfd.
i=1
σ
4
3. X̄n est une combinaison linéaire des v.a. normales indépendantes donc:
X̄n N (E[X̄n ], V [X̄n ]).
n n
1X 1X 1
E[X̄n ] = E[ Xi ] = E[Xi ] = .n.µ, (en utilisant la linéarité de l’espérance.)
n i=1 n i=1 n
n
1 X 1 σ2
V [X̄n ] = 2 V [Xi ] = 2 .n.σ 2 = .
n i=1 n n
W −a
On sait que si W N (a, b) alors √ N (0, 1).
b
2 X̄n − µ
Donc si X̄n N (µ, σn ) alors √ N (0, 1).
σ/ n
n X −µ
i
)2 χ2 (n), car les Xi sont indépendants et ∀i, ( Xiσ−µ )
P
4. On a ( N (0, 1) ⇒
i=1 σ
( Xiσ−µ )2 χ2 (1).
n
X Xi − µ 2 nSn2 √ X̄n − µ 2
5. On a ( ) = 2 +( n ) (1), de plus on sait que
i=1
σ σ σ
n X −µ X̄n − µ X̄n − µ
i
)2 χ2 (n) (2) et on a N (0, 1) ⇒ ( √ )2 χ2 (1)(3). Et on
P
( √
i=1 σ σ/ n σ/ n
2
admet que X̄n et Sn sont indépendantes, on a (d’après (1), (2) et (3)):
Mχ2 (n) (t) = M nSn2 (t) ∗ Mχ2 (1)
σ2
On rappelle que si X1 et X2 sont i.i.d alors MX1 +X2 (t) = MX1 (t) ∗ MX2 (t). et si
X1 χ2 (n) alors MX1 (t) = (1 − 2t)n/2 (voir Ex2.). Donc, on obtient:
nSn2
M nSn2 (t) = (1 − 2t)(n−1)/2 ⇒ χ2 (n − 1)(à retenir)
σ2 σ2
2
(n − 1)Sn−1 nSn2
6. On a = 2 χ2 (n − 1).
σ2 σ
7. On rappelle que si X χ2 (n) alors E[X] = n et V [X] = 2n (fait en Ex2.). Donc
nSn2 n2 2(n − 1) 4
V[ 2
] = 2(n − 1) ⇒ 4
V [Sn2 ] = 2(n − 1) ⇒ V [Sn2 ] = σ .
σ σ n2
2
2
De même V [Sn−1 ]= σ4.
n−1
8. X̄n est un estimateur sans biais de la moyenne µ car E[X̄n ] = µ (1).
2
De plus V [X̄n ] = σn → 0 quand n → +∞ (2).
Donc, d’après (1) et (2), X̄n est un estimateur convergent.
9. Sn2 est un estimateur asymptotiquement sans biais, en effet:
n n n
E[Sn2 ] = E[ n1 Xi2 − X̄n2 ] = n1 E[Xi2 ] − E[X̄n2 ] = n1 (V [Xi ] + E[Xi ])−
P P P
i=1 i=1 i=1
n 2
1 σ2
2
( σn 2 n−1 2
P
(V [X̄n ] + E[X̄n ]) = n
(σ + µ) − + µ) = σ − n
= n
σ .
i=1
⇒ E[Sn2 ] = n−1
n
σ 2 tend vers 0 quand n tend vers +∞. (1) donc Sn2 est un estimateur
asymptotiquement sans biais. De plus V [Sn2 ] = 2(n−1)
n2
σ 4 tend vers 0 quand n tend
vers +∞. (2). Donc, d’après (1) et (2): Sn2 est un estimateur convergent.
5
2
10. Sn−1 est un estimateur sans biais de la variance σ 2 , en effet:
2 n n n n−1 2
E[Sn−1 ] = E[ n−1 Sn2 ] = n−1 E[Sn2 ] = n−1 . n σ = σ2 .
2
2
De plus V [Sn−1 ]= σ 4 tend vers 0 quand n tend vers +∞. Donc Sn−1
2
est un
n−1
estimateur sans biais et convergent.
Exercice 4. Soit X une v.a à valeurs entières, de loi définie pour k ∈ N par:
θk
P (X = k) = ,
(1 + θ)k+1
où θ est un paramètre positif.
1. Vérifier que la loi de X est bien définie.
2. Montrer que ∀n, n0 ∈ N, P (X ≤ n + n0 /X ≥ n) = P (X ≤ n0 ). (Propriété sans
mémoire).
3. Déterminer E[X].
4. Soit (X1 , X2 , ...., Xn ) un échantillon aléatoire de X. Déterminer un estimateur θ̃n
de θ par la méthode des moments.
5. Montrer que θ̃n est sans biais.
6. Montrer que θ̃n est convergent.
7. Montrer que θ̃n est efficace.
θk
Correction. X v.a.discrète tels que P (X = k) = , ∀k ∈ N avec θ > 0
(1 + θ)k+1
1. P (X = k) ≥ 0, car ∀k ∈ N etθ > 0 et on vérifie que
+∞ +∞ +∞
X X θk 1 X θ k
P (X = k) = = = 1.
k=0 k=0
(1 + θ)k+1 1 + θ k=0 1 + θ
+∞
1 X θ k θ n0 +1
2. P (X ≤ n0 ) = =1− ,
1 + θ k=0 1 + θ 1+θ
P ({X ≤ n + n0 } ∩ {X ≥ n}) P (n ≤ X ≤ n + n0 )
P (X ≤ n + n0 /X ≥ n) = = ,
P (X ≥ n) P (X ≥ n)
θ n θ n0 +1
P (n ≤ X ≤ n + n0 ) = 1− ,
1+θ 1+θ
+∞
1 X θ k θ n
P (X ≥ n) = = .
1 + θ k=n 1 + θ 1+θ
D’où la propriété sans mémoire:
∀n, n0 ∈ N, P (X ≤ n + n0 /X ≥ n) = P (X ≤ n0 ).
3. Pour ce fait, on calcule la f.g.m de X :
+∞ +∞
X X θ
MX (t) = E[etX ] = etk P (X = k) = etk (1−p)pk = (1−p)(1−pet )−1 , avec p = .
k=0 k=0
1+θ
6
p
MX0 (t) = p(1 − p)(1 − pet )−2 et ⇒ E[X] = MX0 (0) = = θ.
1−p
MX00 (t) = p(1 − p)[(−2)(1 − pet )−3 (−pet )et + (1 − pet )−2 et ]
p 2 p
2 00 2 −2 −1
⇒ E[X ] = MX (0) = 2p (1−p) +p(1−p) ⇒ V [X] = + = θ(1+θ)
1−p 1−p
4. Comme E[X] = θ, d’après la méthode des moments on obtient θ̃n = X̄n .
+∞
1
P
5. E[θ̃n ] = E[X̄n ] = n
E[Xk ] = θ, ⇒ θ̃n est un estimateur sans bais.
k=1
6. Après calculs, on trouve V [X] = E[X 2 ] − E[X] = ... = θ(1 + θ). Donc V [θ̃n ] =
V [X̄n ] = θ(1+θ)
n
tend vers 0 quand n tend vers +∞ de plus E[θ̃n ] = θ alors θ̃n est un
estimateur convergent.
7. Calculons la quantité d’inforamtion In :
∂2
In (θ) = −nE[
ln P (X, θ)]
∂ 2θ
ln P (X, θ) = − ln(1 + θ) + X ln θ − ln (1 + θ) en dérivant deux fois par rapport à
θ et en utilisant le fait que E[X] = θ, on trouve
n 1
In (θ) = =
θ(1 + θ) V [θ̃n ]
D’où θ̃n est un estimateur efficace.
Exercice 5. Soit (X1 , X2 , ...., Xn ) un échantillon aléatoire de X dont la densité est définie
par:
f (x, θ) = θxθ−1 , 0 < x < 1, 0 < θ < ∞.
Trouver l’estimateur de θ par la méthode des moments.
Correction X v.a. continue de densité
f (x, θ) = θxθ−1 1]0,1[ (x), θ>0
Calculons E[X]:
Z Z 1 Z 1
θ−1 θ
E[X] = xfX (x)dx = xθx dx = θ xθ dx = .
R 0 0 1+θ
Soit θ̃n estimateur de θ par la méthode des moments (M.M)
θ̃n X̄n
X̄n = ⇒ θ̃n =
1 + θ̃n 1 − X̄n
==========================================================