0% ont trouvé ce document utile (0 vote)
80 vues7 pages

Correction Stat

Transféré par

Ben amor Sabry
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
80 vues7 pages

Correction Stat

Transféré par

Ben amor Sabry
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université de Manouba Probabilités et Satistiques 1ème année

École Nationale des Sciences A.U: 2023-2024


de l’Informatique TD 5 Sem: I
27-11-2023

Echantillonage-Estimation
Exercice 1. Un fournisseur d’accès à Internet met en place un point locale d’accès, qui
dessert 5000 abonnés. A instant donné, chaque abonné a une probabilité égale à 20%
d’être connecté. Les comportements des abonnés sont supposés indépendants les uns des
autres.

1. On note X la v.a égale au nombre d’abonnés connectés à un instant t . Quelle est


la loi de X? Quelle est son espérance, son écart-type?

2. On pose Y = X−1000

800
. Justifier précisément qu’on peut approcher la loi de Y par la
loi normale N (0, 1).

3. Le fournisseur d’accès souhaite savoir combien de connexions simultanées le point


d’accès doit pouvoir gérer pour que sa probabilité d’être saturé à un instant donné
soit inférieur à 2, 5%. En utilisant l’approximation précédente, proposer une valeur
approchée de ce nombre de connexions ( on pourra utiliser une table de la loi nor-
male).

Correction.

1. X : nbre de gens qui sont connectés à l’instant t, on a n = 5000 donc X B(n, p)


avec p = 0.2. Donc E[X]
p = np = 5000 ∗ 0.2 = 1000, V [X] = np(1 − p) = 5000 ∗ 0.2 ∗
0.8 = 800 et σ[X] = V [X] = 28.28.
X − E[X]
2. n = 5000 assez grand, on a p N (0, 1), d’après le T.C.L. Donc Y
V [X]
N (0, 1).

3. Soit N : nbre de connexion pour que la probabilité de saturation soit < 2.5%.Donc,

cherchons N tq P (X > N ) < 0.025 ⇒ P (Y > N√−1000 ) < 0.025 ⇒ 1 − π N√−1000
    800 800

< 0.025 ⇒ π N√−1000


800
≥ 0.975 ⇒ π N√−1000
800
≥ π(1.96) d’après la table de la loi
N (0, 1). Comme π est croisssante et après calculs, on trouve N ≥ 1055.4, soit
N = 1056

Exercice 2. Soit X une v.a qui suit la loi de Gamma G(α, λ), α > 0, λ > 0. On rappelle
que la d.d.p de X G(α, λ) s’écrit

λα −λ x α−1
fX (x) = e x 1[0,+∞[ (x).
Γ(α)

1. Montrer que la f.g.m de X s’écrit pour t < λ :


t
MX (t) = (1 − )−α .
λ
α α
2. En déduire que E[X] = λ
et V (X) = λ2
.

1
3. Montrer que la loi exponentielle est un cas particulier de la loi de Gamma.

4. Soit (X1 , X2 , ...., Xn ) un éch. aléa. de la v.a X. Par la méthode des moments,
déterminer des estimateurs pour α et λ.

5. Soit n un entier naturel non nul, on dit que X suit la loi de chi deux à n degrès de
liberté lorsque X G( n2 , 12 ). On écrit X χ2 (n).

(a) Déterminer E[X] et V (X).


(b) Soit X χ2 (20), en utilisant la table de la loi de χ2 ,
i. calculer P (X > 16.27).
ii. déterminer un nombre a tel que P (X ≤ a) = 0.2

6. Montrer que si X1 et X2 sont deux v. a indépendantes telles que X1 χ2 (r1 ) et


X2 χ2 (r2 ) alors X1 + X2 χ2 (r1 + r2 ). Généraliser ce résultat.

7. Montrer que si Z N (0, 1) alors Z 2 χ2 (1).

8. Soit Z1 , Z2 , ...., Z7 un échantillon aléatoire de la distribution normale N (0, 1). On


pose W = Z12 + Z22 + ...... + Z72 , construire un intervalle ]a, b[ tel que

P (a < W < b) = 0.925

Correction.
λα −λ x α−1
1. X G(α, λ), fX (x) = Γ(α)
e x 1[0,+∞[ (x). La f.g.m de X est:
Z +∞
tX
MX (t) = E[e ] = etx fX (x)dx,
0

aprés changement de variable u = (λ − Rt)x ⇒ dx = du/(λ − t) et en utilisant la


+∞
définition de la fonction Gamma Γ(α) = 0 e−u uα−1 avec Γ(1) = 1, on obtient

t
MX (t) = (1 − )−α .
λ

2. E[X] = MX0 (0) = αλ , E[X 2 ] = MX00 (0) = α(α+1)


λ2
, alors V [X] = E[X 2 ] − E[X]2 = α
λ2
.
Donc:

 X G(α, λ)
E[X] = αλ
V [X] = λα2 .

λ1 −λ x 1−1
3. X E(λ), alors fX (x) = λe−λx 1[0,+∞[ (x) = e x 1[0,+∞[ (x). Donc X
Γ(1)
G(1, λ)

4. On sait que

 E[X] = α

λ
 V [X] = α .
λ2

2
D’aprés la méthode des moments, les estimateurs α̂ et λ̂ des paramètres α et λ sont
solutions du système suivant:
α̂

 X̄n =

λ̂
2 α̂
 Sn−1 =
 ,
λ̂2
2
avec X̄n la moyenne empirique et Sn−1 la variance empirique corrigée de l’échantillon,
qui représentent respectivement les estimateurs de l’espérance et de la variance de
la v.a X. Tous calculs fait, on trouve:
X̄n2

 α̂ =


2
Sn−1
X̄n
 λ̂ = .


2
Sn−1

5. X χ2 (n) ⇔ X G( n2 , 21 )
(a) D’après la question 2., E[X] = n et V [X] = 2n
(b) X χ2 (20)
i. D’après la table de la loi de χ2 , on a P (X > Zn,α ) = α avec Zn,α = 16.27
et n = 20, on trouve α = 0.7. Donc P (X > 16.27) = 0.7.
ii. P (X ≤ a) = 0.2 ⇒ P (X ≥ a) = 0.8. D’après la table de la loi χ2 pour
n = 20 et α = 0.8 on trouve a = Z20,0.8 = 14.58
6. Si MX ≡ MY alors X et Y suivent la même loi. On donne X1 χ2 (r1 ) et
X2 χ2 (r2 ), X1 et X2 sont i.i.d. Calculons

MX1 +X2 (t) = E[et(X1 +X2 ) ] = E[etX1 etX2 ) ] = E[etX1 ]E[etX2 ] (1)
= (1 − 2t)r1 /2 (1 − 2t)r2 /2 = (1 − 2t)(r1 +r2 )/2 (2)
= MY (t) (3)
avec Y χ2 (r1 + r2 ). Ce qui impliqe que X1 + X2 χ2 (r1 + r2 ).
n
χ2 (1) alors χ2 (n).
P
Généralement, si on a Xi Xi
i=1

1 −2z 1 2
7. Soit Z N (0, 1) ⇒ fZ (z) = 2π e .
2
FZ 2 (z) = P (Z ≤ z) = 0 si√z ≤ 0. √ √
Si z ≥ 0 ⇒ FZ 2 (z) = P (− z ≤ Z ≤ z) = 2FZ ( z) − 1.
√ 1 12 −1 − 12
On dérive des deux côtés, fZ 2 (z) = √1z fZ ( z) = 2π z e z = fχ2 (1) (z), avec
1 √ 2 2
Γ( 2 ) = π. D’où Z χ (1)
8. Soit (Z1 , Z2 , ...., Zn ) un éch. aléa. de N (0, 1), avec les Zi sont indépendants, Zi
N (0, 1).
⇒ les Zi2 sont indépendants et on a Zi2 χ2 (1) d’après la question précédente.
⇒ W = Z12 + Z22 + .... + Z72 χ2 (7) d’après la question 6.
Cherchons a et b tels que P (a < W < b) = 0.925 P (a < W < b) = P (W >
a) − P (W > b) = 0.925. Donc, cherchons a tq P (W > a) = 0.95 et b tq P (W >
b) = 0.025.
D’après la table statistique de la loi χ2 , on trouve a = Z7,0.95 = 2.17 et b = Z7,0.025 =
16.01

3
Exercice 3. Soit (X1 , X2 , ...., Xn ) un échantillon aléatoire d’une variable aléatoire X
définie sur une population normale de moyenne µ et de variance σ 2 . On pose
n n n
1X 1X 1 X
X̄n = Xi , Sn2 = (Xi − X̄n )2 , 2
Sn−1 = (Xi − X̄n )2
n i=1 n i=1 n − 1 i=1

On admet que X̄n et Sn2 sont indépendantes.


n
1X 2
1. Montrer que Sn2 = Xi − X̄n2 .
n i=1
n 2
X Xi − µ 2 nSn2 √ X̄n − µ 2 (n − 1)Sn−1 √ X̄n − µ 2
2. Montrer que ( ) = 2 +( n ) = 2
+( n ).
i=1
σ σ σ σ σ

X̄n − µ
3. Déterminer la loi de la distribution de la v.a √ .
σ/ n
n
X Xi − µ 2
4. Déterminer la loi de la distribution de la v.a ( ).
i=1
σ

nSn2
5. Déterminer la loi de la distribution de la v.a .
σ2
2
(n − 1)Sn−1
6. Déterminer la loi de la distribution de la v.a .
σ2
2
7. Calculer V (Sn2 ) et V (Sn−1 ).

8. Montrer que X̄n est un estimateur sans biais et convergent de µ.

9. Montrer que Sn2 est un estimateur asymptotiquement sans biais et convergent.


2
10. Montrer que Sn−1 est un estimateur sans biais et convergent de σ 2 .

Correction. (X1 , ...Xn ) éch. aléa. X N (µ, σ 2 ), tels que les v. a. X̄n et Sn2 sont
indépendantes.
n n   n
1 1
2 2
Xi − 2Xi X̄n + X̄n = n1
2 2
Xi2 − X̄n2 .
P P P
1. Sn = n (Xi − X̄n ) = n
i=1 i=1 i=1

n
nSn2 1 X 2 n
2. 2
= 2
Xi − 2 X̄n2 (1). D’autre part,
σ σ i=1 σ
√ X̄n − µ 2 n 2n n
( n ) = 2 X̄n2 − 2 X̄n µ + 2 µ2 (2).
σ n
σ σ σ n
1 X 2 2n n 2 1 X 2 
⇒(1)+(2)= 2 Xi − 2 X̄n µ + 2 µ = 2 Xi − 2µXi + µ2
σ i=1 σ σ σ i=1
n
X Xi − µ
= ( )2 cqfd.
i=1
σ

4
3. X̄n est une combinaison linéaire des v.a. normales indépendantes donc:
X̄n N (E[X̄n ], V [X̄n ]).
n n
1X 1X 1
E[X̄n ] = E[ Xi ] = E[Xi ] = .n.µ, (en utilisant la linéarité de l’espérance.)
n i=1 n i=1 n
n
1 X 1 σ2
V [X̄n ] = 2 V [Xi ] = 2 .n.σ 2 = .
n i=1 n n
W −a
On sait que si W N (a, b) alors √ N (0, 1).
b
2 X̄n − µ
Donc si X̄n N (µ, σn ) alors √ N (0, 1).
σ/ n
n X −µ
i
)2 χ2 (n), car les Xi sont indépendants et ∀i, ( Xiσ−µ )
P
4. On a ( N (0, 1) ⇒
i=1 σ
( Xiσ−µ )2 χ2 (1).
n
X Xi − µ 2 nSn2 √ X̄n − µ 2
5. On a ( ) = 2 +( n ) (1), de plus on sait que
i=1
σ σ σ
n X −µ X̄n − µ X̄n − µ
i
)2 χ2 (n) (2) et on a N (0, 1) ⇒ ( √ )2 χ2 (1)(3). Et on
P
( √
i=1 σ σ/ n σ/ n
2
admet que X̄n et Sn sont indépendantes, on a (d’après (1), (2) et (3)):

Mχ2 (n) (t) = M nSn2 (t) ∗ Mχ2 (1)


σ2

On rappelle que si X1 et X2 sont i.i.d alors MX1 +X2 (t) = MX1 (t) ∗ MX2 (t). et si
X1 χ2 (n) alors MX1 (t) = (1 − 2t)n/2 (voir Ex2.). Donc, on obtient:

nSn2
M nSn2 (t) = (1 − 2t)(n−1)/2 ⇒ χ2 (n − 1)(à retenir)
σ2 σ2
2
(n − 1)Sn−1 nSn2
6. On a = 2 χ2 (n − 1).
σ2 σ
7. On rappelle que si X χ2 (n) alors E[X] = n et V [X] = 2n (fait en Ex2.). Donc

nSn2 n2 2(n − 1) 4
V[ 2
] = 2(n − 1) ⇒ 4
V [Sn2 ] = 2(n − 1) ⇒ V [Sn2 ] = σ .
σ σ n2
2
2
De même V [Sn−1 ]= σ4.
n−1
8. X̄n est un estimateur sans biais de la moyenne µ car E[X̄n ] = µ (1).
2
De plus V [X̄n ] = σn → 0 quand n → +∞ (2).
Donc, d’après (1) et (2), X̄n est un estimateur convergent.

9. Sn2 est un estimateur asymptotiquement sans biais, en effet:


n n n
E[Sn2 ] = E[ n1 Xi2 − X̄n2 ] = n1 E[Xi2 ] − E[X̄n2 ] = n1 (V [Xi ] + E[Xi ])−
P P P
i=1 i=1 i=1
n 2
1 σ2
2
( σn 2 n−1 2
P
(V [X̄n ] + E[X̄n ]) = n
(σ + µ) − + µ) = σ − n
= n
σ .
i=1
⇒ E[Sn2 ] = n−1
n
σ 2 tend vers 0 quand n tend vers +∞. (1) donc Sn2 est un estimateur
asymptotiquement sans biais. De plus V [Sn2 ] = 2(n−1)
n2
σ 4 tend vers 0 quand n tend
vers +∞. (2). Donc, d’après (1) et (2): Sn2 est un estimateur convergent.

5
2
10. Sn−1 est un estimateur sans biais de la variance σ 2 , en effet:
2 n n n n−1 2
E[Sn−1 ] = E[ n−1 Sn2 ] = n−1 E[Sn2 ] = n−1 . n σ = σ2 .
2
2
De plus V [Sn−1 ]= σ 4 tend vers 0 quand n tend vers +∞. Donc Sn−1
2
est un
n−1
estimateur sans biais et convergent.

Exercice 4. Soit X une v.a à valeurs entières, de loi définie pour k ∈ N par:

θk
P (X = k) = ,
(1 + θ)k+1

où θ est un paramètre positif.

1. Vérifier que la loi de X est bien définie.

2. Montrer que ∀n, n0 ∈ N, P (X ≤ n + n0 /X ≥ n) = P (X ≤ n0 ). (Propriété sans


mémoire).

3. Déterminer E[X].

4. Soit (X1 , X2 , ...., Xn ) un échantillon aléatoire de X. Déterminer un estimateur θ̃n


de θ par la méthode des moments.

5. Montrer que θ̃n est sans biais.

6. Montrer que θ̃n est convergent.

7. Montrer que θ̃n est efficace.


θk
Correction. X v.a.discrète tels que P (X = k) = , ∀k ∈ N avec θ > 0
(1 + θ)k+1
1. P (X = k) ≥ 0, car ∀k ∈ N etθ > 0 et on vérifie que
+∞ +∞ +∞
X X θk 1 X  θ k
P (X = k) = = = 1.
k=0 k=0
(1 + θ)k+1 1 + θ k=0 1 + θ

+∞
1 X  θ k  θ n0 +1
2. P (X ≤ n0 ) = =1− ,
1 + θ k=0 1 + θ 1+θ
P ({X ≤ n + n0 } ∩ {X ≥ n}) P (n ≤ X ≤ n + n0 )
P (X ≤ n + n0 /X ≥ n) = = ,
P (X ≥ n) P (X ≥ n)
 θ n   θ n0 +1 
P (n ≤ X ≤ n + n0 ) = 1− ,
1+θ 1+θ
+∞
1 X  θ k  θ n
P (X ≥ n) = = .
1 + θ k=n 1 + θ 1+θ
D’où la propriété sans mémoire:

∀n, n0 ∈ N, P (X ≤ n + n0 /X ≥ n) = P (X ≤ n0 ).

3. Pour ce fait, on calcule la f.g.m de X :


+∞ +∞
X X θ
MX (t) = E[etX ] = etk P (X = k) = etk (1−p)pk = (1−p)(1−pet )−1 , avec p = .
k=0 k=0
1+θ

6
p
MX0 (t) = p(1 − p)(1 − pet )−2 et ⇒ E[X] = MX0 (0) = = θ.
1−p
MX00 (t) = p(1 − p)[(−2)(1 − pet )−3 (−pet )et + (1 − pet )−2 et ]
 p 2 p
2 00 2 −2 −1
⇒ E[X ] = MX (0) = 2p (1−p) +p(1−p) ⇒ V [X] = + = θ(1+θ)
1−p 1−p

4. Comme E[X] = θ, d’après la méthode des moments on obtient θ̃n = X̄n .


+∞
1
P
5. E[θ̃n ] = E[X̄n ] = n
E[Xk ] = θ, ⇒ θ̃n est un estimateur sans bais.
k=1

6. Après calculs, on trouve V [X] = E[X 2 ] − E[X] = ... = θ(1 + θ). Donc V [θ̃n ] =
V [X̄n ] = θ(1+θ)
n
tend vers 0 quand n tend vers +∞ de plus E[θ̃n ] = θ alors θ̃n est un
estimateur convergent.

7. Calculons la quantité d’inforamtion In :

∂2
In (θ) = −nE[
ln P (X, θ)]
∂ 2θ

ln P (X, θ) = − ln(1 + θ) + X ln θ − ln (1 + θ) en dérivant deux fois par rapport à
θ et en utilisant le fait que E[X] = θ, on trouve
n 1
In (θ) = =
θ(1 + θ) V [θ̃n ]

D’où θ̃n est un estimateur efficace.

Exercice 5. Soit (X1 , X2 , ...., Xn ) un échantillon aléatoire de X dont la densité est définie
par:

f (x, θ) = θxθ−1 , 0 < x < 1, 0 < θ < ∞.


Trouver l’estimateur de θ par la méthode des moments.
Correction X v.a. continue de densité

f (x, θ) = θxθ−1 1]0,1[ (x), θ>0

Calculons E[X]:
Z Z 1 Z 1
θ−1 θ
E[X] = xfX (x)dx = xθx dx = θ xθ dx = .
R 0 0 1+θ

Soit θ̃n estimateur de θ par la méthode des moments (M.M)

θ̃n X̄n
X̄n = ⇒ θ̃n =
1 + θ̃n 1 − X̄n
==========================================================

Vous aimerez peut-être aussi