Chap 2
Chap 2
Estimation
Introduction
Les premiers problèmes d’inférence statistique aux quels s’applique la
théorie des distributions d’échantillonnage sont les problèmes d’estimation.
Car en général, nous cherchons des informations sur une population d’e¤ectif
relativement important (N ) à partir de l’étude d’un échantillon extrait
de cette dernière ( application: domaine économique, social, industriel,
santé...etc). Puisque le plus souvent, il n’est pas possible d’étudier toute
la population; cela prendrait trop de temps , reviendrait trop cher ou serait
aberrant comme ( par exemple: dans le cas d’un contôle de qualité en-
trainant la destruction des pièces). Donc, on cherche à avoir une idée sur (
estimer ) la valeur d’un paramètre inconnu d’un caractère dé…ni sur cette
population (moyenne, variance, proportion). Le mot estimation se réfère
à la valeur numérique utilisée pour approximer. En général un estimateur
est une variable aléatoire, en d’autres termes l’estimation du paramètre
dépend des individus présents dans l’échantillon. Si un autre échantillon
avait été considéré, une autre estimation du paramètre aurait été obtenue.
Le choix de l’estimateur se fait selon des critères qui mesurent sa proximité
au paramètre inconnu. Donc l’estimation consiste à donner des valeurs ap-
prochées aux paramètres d’une population m; 2 ; ::: à l’aide d’un échan-
tillon extrait de cette population.
Pour résoudre ce problème, il existe 2 types de réponses:
> L’estimation ponctuelle: à partir de l’information fournie par l’échantillon,
donne une valeur unique au paramètre inconnu :
21
xxii 3. Estimation
T = (T E (T )) + (E (T ) )
22
3.1 Principes généraux xxiii
E (T ) =
Exemple
n
1X
> X= Xi ; E X = m =) X : estimateur sans biais de m
n i=1
n
1X 2 n 1
> S2 = Xi X ; E S2 = 2
=) S 2 : estimateur biaisé de 2
n i=1 n
n
X
2 1 2 n
> S = Xi X = S2;
n 1 i=1
n 1
2 n
E S = E S2 = 2
=) S 2
: estimateur sans biais de 2
n 1
Sn
> F = ; E (F ) = p =) F estimateur sans biais de p
n
Remarque
Si
On peut écrire:
h i h i
2 2
E (T ) = E (T E (T )) + (E (T ) ))
h i
2
= E T E (T ))2 + (E (T ) ) + 2(T E (T )) (E (T ) )
h i h i
2 2
= E (T E (T )) + E (E (T ) ) + 2E (T E (T )) (E (T ) )=0
=V (T ) =cste
donc h i
2 2
E (T ) = V ar (T ) + (E (T ) )
23
xxiv 3. Estimation
=) h i
: E (T2 ) = V ar (T2 ) ;
2
si h i h i
2 2
V ar (T1 ) < V ar (T2 ) =) E (T1 ) < E (T2 )
Estimateur e¢ cace
Dé…nition
On dit que T est l’estimateur le plus e¢ cace de si:
E (T ) =
V ar (T ) V ar (T 0 ) où T 0 est un autre estimateur sans biais de
Estimateur convergent
Dé…nition
Un estimateur T est dit convergent si sa variance tend vers 0 quand la
taille de l’échantillon augmente.
Exemple
X est un estimateur convergent car
2
V ar X = ! 0; quand n ! +1
n
P
T ! ;n ! +1 () P [jT j "] ! 1; quand n ! +1
() P[ " T + "] ! 1; quand n ! +1
si
1) E (T ) = ou (E (T )) ! ; quand n ! +1
2) V ar (T ) ! 0; quand n ! +1
24
3.1 Principes généraux xxv
n
1X 2
X = Xi ; E X = m; V ar X = ! 0; quand n ! +1
n i=1 n
donc X convergent
25
xxvi 3. Estimation
2
estimateur de :
n
X n
X
1
2 2 2 1 2
S = Xi X ; S = Xi X
n i=1
n 1 i=1
3) on a:
h 0
i2 @ ln f (X; m)
2
In (m) = nE (ln f (X; m))m = nE
@m
2
1 1
(X m 2
) 1 1 X m
ln f (X; m) = ln p e 2 = ln p
2 2 2
" #
2
@ ln f (X; m) @ 1 1 X m X m
= ln p = 2
@m @m 2 2
2
X m n 2 n
In (m) = nE 2
= 4
E (X m) = 4
V ar (X)
n 2 n 1
= 4
= 2
= =) X e¢ cace
V X
Exemple
26
3.2 Estimation ponctuelle xxvii
Remarques
1) En pratique, on tire des échantillons de grande taille pour que la
variance de l’estimateur ! 0 quand n ! +1; dans le but d’avoir une
bonne précision de l’estimateur.
2) Jusqu’à présent, on a présenté les estimateurs par la méthode des
moments ( moyenne, variance,...) mais cette méthode a ses limites. On va
montrer à travers un exemple que cette méthode n’est pas toujours la plus
pertinente.
Exemple
27
xxviii 3. Estimation
4 2
V ar 2X = 4V ar X = !n!+1 0
n 12
Après expérience, on considère la réalisation suivante d’un échantillon de
taille 10 de la v.a X : 1:04 0:95 0:29 0:12 1:13 0:51 0:89 1:96 1:36
Ces données numériques conduisent à l’estimation de suivante:
10
X
xi
b1 = 2x = 2 i=1 1:04 + ::: + 1:36
= = 1:89
10 5
donc b 1:96; ainsi la valeur b2 = 1:96 est " plus vraisemblable que
b1 = 1:89: b = max1 i n xi :
28
3.2 Estimation ponctuelle xxix
Fonction de vraisemblance
On appelle fonction de vraisemblance, notée L (x1 ; :::; xn ) de l’échantillon
(X1 ; :::; Xn ) la loi (distribution) de probabilité du vecteur aléatoire (X1 ; :::; Xn )
(vecteur aléatoire: c’est un vecteur dont toutes ses composantes sont des
variables aléatoires).
Cas discret
Si les Xi sont des variables aléatoires discrètes (i = 1; :::; n) ; alors:
Exemple
Soit un échantillon (X1 ; :::; Xn ) de loi de probabilité de Poisson: L (X) =
P( )
xi
P (X = xi ) = e
xi !
29
xxx 3. Estimation
n
Y xi
L (x1 ; :::; xn ; ) = e
i=1
xi !
X
n
xi
i=1
n
= e n
Y
(xi !)
i=1
Cas continu:
Si les Xi sont des variables aléatoires continues (i = 1; :::; n) ; alors:
ou bien
n
Y
L (x1 ; :::; xn ; ) = f (x1 ; :::; xn ) = f (xi )
i=1
Exemple
Soit un échantillon (X1 ; :::; Xn ) de loi de probabilité normale; X !
N m; 2
n
Y
2 1 1
( xi m
)
2
L x1 ; :::; xn ; = p e 2
i=1
2
X
n
1
(xi m)2
1 2 2
= n e i=1
(2 ) 2 n
30
3.2 Estimation ponctuelle xxxi
xi
i=1
n
L (x1 ; :::; xn ; ) = e n
Y
(xi !)
i=1
0 Xn 1
" n
#
B xi
C Y
ln L (x1 ; :::; xn ; ) = n + ln B
@
i=1 C
A ln (xi !)
i=1
n
" n
#
X Y
= n + xi ln ln (xi !)
i=1 i=1
n
X
xi
d ln L (x1 ; :::; xn ; ) i=1
= n+ =0
d
n
X
=) b= 1 xi
n i=1
31
xxxii 3. Estimation
au point =b:
n
X
xi
i=1 n2
= !2 = n <0
n
X X
1
xi xi
n2
i=1 i=1
X 6
b= 1 1
xi = (10) = 1:67
n i=1 6
2) T !P
n!+1 ((1) + V ar (T ) !n!+1 0)
1 1
la loi de T !n!+1 N ; ; V (T ) =
In ( ) In ( )
1
V (T ) !n!+1 ceci exprime que l’estimateur est asymptotiquement e¢ cace.
In ( )
Remarque
Certains estimateurs obtenus par la méthode des momemts sont les
mêmes que ceux obtenus par la méthode du MV.
32
3.3 Estimation par intervalle xxxiii
P (2 2] 1; X]) = P (X 2)
= 1 P (X < 2) = 1 (2) où : fonction de répartition de la v.a X
la valeur (2) est lue sur la table de la loi normale standart.
= 1 0:9772 = 0:0228
ou bien:
1 1
P (X 2) = P (0 X 2) = 0:4772 = 0:0228
2 2
33
xxxiv 3. Estimation
P ( 2 [X 1; X + 1]) = P (X 1X + 1)
8 9 8 9
< X 1 = < X 1 =
or X 1 X + 1 () et () et
: ; : ;
X +1 X 1
donc : P (X 1 X + 1) = P ( 1 X 1) ; Z = X ! N (0; 1)
= P( 1 Z 1) = (1) ( 1)
= (1) (1 (1)) = 2 (1) 1 = 2 (0:8413) 1 = 0:6826
* Intervalle bilatéral ; si 1 6= 0; 2 6= 0 et 1 + 2 = :
Parfois il peut arriver que l’on cherche à connaître la borne maximale (ou
minimale) d’un paramètre. Dans ce cas on utilise un intervalle de con…ance
unilatéral. Il en existe de 2 sortes:
* Intervalle unilatéral à gauche; si 2 = 0:
* Intervalle unilatéral à droite; si 1 = 0:
Alors, d’une façon générale on a :
P ( 2 [a; b]) = 1 () P (a b) = 1
donc P ( 2
= [a; b]) =
P ( < a) = ; P ( > b) =
2 2
34
3.3 Estimation par intervalle xxxv
2
X m
X ! N m; =) Z = ! N (0; 1)
n p
n
où Z est une v.a libre
Dé…nition
On dit qu’une v.a est libre si sadistribution de probabilité ne dépend pas
des paramètres du modèle.
Et donc,
P U2 Z U2 = 1
!
X m
() P U2 U2 =P X U2 p m X +U2 p
p
n
n n
= 1
d’où:
IC = x U2 p ; x+U2 p
n n
et on a :
P U2 Z U2 = 1
() U2 U2 = 1
() U2 1 U2 =1
() 2 U2 1=1
() U2 = 1
2
1
() U2 = 1 , puis lire sur la table N (0; 1) la valeur U 2
2
35
xxxvi 3. Estimation
Exemple
Si = 5% = 0:05 donc 1 = 0:95
1 + 0:95
U2 = = 0:975
2
1
=) U 2 = (0:975) = 1:96
Donc:
= 5% ! U 2 = 1:96
et on obtient:
Remarque
On a:
P (U 1 Z U1 2 ) = 1
!
X m
() P U 1
U1 2
=1
p
n
() P X U1 2
p m X U 1
p =1
n n
donc:
IC = x U1 p ; x U 1
p
2
n n
36
3.3 Estimation par intervalle xxxvii
où U 1
et U1 2
sont des valeurs lues dans la table de la loi N (0; 1) :
1
f (t) = p n+1
1 n 2
n 2; 2 1 + tn 2
(n) (p)
où : (n; p) =
(n + p)
et
E (Tn ) = 0 si n > 1
n
V ar (Tn ) = si n > 2
n 2
Avec la remarque suivante:
37
xxxviii 3. Estimation
alors;
2 n
S = S2
n 1
et
2
2
X ! N m; =) X ! N m;
n
X m X m
=) = S
p p
n n
or
p
2 n n
S = S 2 =) S = S p
n 1 n 1
S S
=) p =p
n n 1
D’où:
X m X m
= S
p p
n n
X m
= =T
pS
n 1
X m
et on montre que la v.a T = pS
suit la loi de Student à (n 1) degrès
n 1
de liberté.
En e¤et:
2
X m
X ! N m; =) ! N (0; 1)
n p
n
nS 2 2
et 2
! n 1
donc:
X m
X m p
n
T = =q p
pS S2 n
n 1 n 1 2
X m X m
p p
n n
= q =r
nS 2 1 nS 2
2 2
n 1
n 1
2
X m nS 2
où ! N (0; 1) et 2
! n 1
p
n
=) T ! St (n 1) d:d:l
38
3.3 Estimation par intervalle xxxix
Remarque
1) Il est possible de déterminer graphiquement ces intervalles; c’est ce
qu’on appelle construction d’abaques. Ce principe est basé sur la construc-
tion d’une carte qui nous donne, par simple lecture, l’intervalle cherché.
2) La quantité
v
u n
u 1 X
W = 2F 1
1 t (xi x)
2
2 n (n 1) i=1
est appelée "étendue de Student". C’est une statistique utile dans cer-
tains problèmes de test.
inconnu ( et n 30 )
La loi de la population est quelquonque, mais comme n 30, donc la loi
de Student converge vers la loi normale ( Quand n ! +1 ), et donc on
remplace t 2 par u 2 :
s s
IC = x u2 p , x+u2 p
n 1 n 1
39
xl 3. Estimation
Remarques
1) Si on considère que le tirage se fait sans remise (exhaustif), alors
2
N n
V ar X =
n N 1
et donc IC de la moyenne dans le cas où connu, la population est de
loi normale ou n 30 si la polulation n’est pas de loi normale.
" r r #
N n N n
IC = x u 2 p , x+u2 p
n N 1 n N 1
s s
IC = x t2 p , x+t2 p
n 1 n 1
1
a) = 0:05 = 5% =) 1 = 0:95; t 2 = F 1
2
t2 = t0:025 = 2:306 valeur lue sur la table de Student à 8 d.d.l
3:65 3:65
IC5% = 9:55 2:306 p ; 9:55 + 2:306 p = [6:58; 12:52] (1)
8 8
b) = 0:01 = 1% =) 1 = 0:99; t 2 = t0:005 = 3:355 valeur lue sur la table de Student à 8 d.d.l
3:65 3:65
IC1% = 9:55 3:355 p ; 9:55 + 3:355 p = [5:22; 13:88] (2)
8 8
On remarque que IC5% IC1%
40
3.3 Estimation par intervalle xli
et
n n
1 X X 2
ns2 2 Xi m 2
2
= 2
(Xi m) = ! n
i=1 i=1
Xi m
car ! N (0; 1)
donc
ns2 n2
V 2
= 4
V s2 = 2n
4
2
=) V s2 = 2n = 4
!n!+1 0
n2 n
ii) m inconnu
2
Dans ce cas, on prend pour estimateur de l’estimateur sans biais
n
X
2 1 2 2 2 2 2 4
S = Xi X ; E S = ; V S = !n!+1 0
n 1 i=1
n 1
et on sait que
n 1 2 n
2
S = 2
S2 ! 2
n 1
2
De i) et ii) on remarque que la distribution de l’estimateur de est une
2
que soit m connu ou non.
41
xlii 3. Estimation
P S12 2
S22 = 1
On a:
2 ns2 2
P 1 2 1 2
= 1
2 2
1
1 1 2
() P =1
ns2 2 ns2
ns2 2 ns2
() P 2 2
=1
1 2 1
donc
ns2 ns2
IC = 2 , 2
1 2 1
Remarques
1) Si 1 = 2 = 2, alors
" #
ns2 ns2
IC = 2 , 2
1 2 2
42
3.3 Estimation par intervalle xliii
avec
2
0:025 = 16:047; 21 0:025 = 20:975 = 45:722
2
ces valeurs sont lues sur la table du 29 d.d.l
donc
30 (100) 30 (100)
IC5% = ; = [65:64 , 187:5]
45:722 16:047
pq F p
F ! N p; =) U = p pq ! N (0; 1)
n n
alors:
9? p1 ; p2 2 R= P (p1 p p2 ) = 1
on a
P (u 1
U u1 2
)=1
!
F p
P u 1
p pq u1 2
= 1
n
r r
pq pq
() P u 1
F p u1 2
=1
n n
r r
pq pq
() P F u1 2
p F u 1 =1
n n
43
xliv 3. Estimation
donc r r
pq pq
p1 = f u1 2 et p2 = f u 1
n n
on remarque que p se trouve dans les bornes, donc il faut le remplacer.
1) On remplace p par f et q par 1 f ( car F est un estimateur sans
biais de p et f est une valeur de F ), alors
r r !
f (1 f ) f (1 f )
P F u1 2 p F u 1 =1
n n
ainsi
" r r #
f (1 f ) f (1 f )
IC = f u1 2 , f u 1
n n
44
3.3 Estimation par intervalle xlv
r
0:05 (0:95)
p1 = 0:05 2:58 = 0:045
12600
r
0:05 (0:95)
p2 = 0:05 + 2:58 = 0:055
12600
donc:
X1 X2 (m1 m2 )
q 2 2
! N (0; 1)
n1
1
+ n2
2
45
xlvi 3. Estimation
46