0% ont trouvé ce document utile (0 vote)
41 vues26 pages

Chap 2

Transféré par

Romaissa Cherak
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
41 vues26 pages

Chap 2

Transféré par

Romaissa Cherak
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

3

Estimation

Introduction
Les premiers problèmes d’inférence statistique aux quels s’applique la
théorie des distributions d’échantillonnage sont les problèmes d’estimation.
Car en général, nous cherchons des informations sur une population d’e¤ectif
relativement important (N ) à partir de l’étude d’un échantillon extrait
de cette dernière ( application: domaine économique, social, industriel,
santé...etc). Puisque le plus souvent, il n’est pas possible d’étudier toute
la population; cela prendrait trop de temps , reviendrait trop cher ou serait
aberrant comme ( par exemple: dans le cas d’un contôle de qualité en-
trainant la destruction des pièces). Donc, on cherche à avoir une idée sur (
estimer ) la valeur d’un paramètre inconnu d’un caractère dé…ni sur cette
population (moyenne, variance, proportion). Le mot estimation se réfère
à la valeur numérique utilisée pour approximer. En général un estimateur
est une variable aléatoire, en d’autres termes l’estimation du paramètre
dépend des individus présents dans l’échantillon. Si un autre échantillon
avait été considéré, une autre estimation du paramètre aurait été obtenue.
Le choix de l’estimateur se fait selon des critères qui mesurent sa proximité
au paramètre inconnu. Donc l’estimation consiste à donner des valeurs ap-
prochées aux paramètres d’une population m; 2 ; ::: à l’aide d’un échan-
tillon extrait de cette population.
Pour résoudre ce problème, il existe 2 types de réponses:
> L’estimation ponctuelle: à partir de l’information fournie par l’échantillon,
donne une valeur unique au paramètre inconnu :

21
xxii 3. Estimation

> L’estimation par intervalle de con…ance: consiste à construire un in-


tervalle à l’intérieur duquel, le paramètre se trouve avec une probabilité
donnée.

3.1 Principes généraux


Soit une population dont la distribution dépend d’un paramètre inconnu
et soit un échantillon (X1 ; X2 ; :::; Xn ) extrait de cette population.
Une statistique T = (X1 ; X2 ; :::; Xn ), utilisée pour estimer , est dite
^ v
estimateur qu’on note : La valeur prise par T est dite estimation de
:
Evidemment, l’estimateur doit avoir certaines qualités pour être accépt-
able.
Exemple
Les variables aléatoires X; S 2 ; F sont appelées estimateurs de m; 2 ; p
(resp).
Remarque
Il est possible que le même paramètre soit estimé par des estimateurs
di¤érents.
Exemple
Pour une distribution symétrique, la médiane de l’échantillon est égalemnt
une estimation de la moyenne m:
Nous allons dans ce qui suit présenter les critères les plus souvent util-
isés pour dé…nir les “qualités exigées” d’un estimateur. Car d’une manière
générale, on va choisir entre plusieurs estimateurs possibles d’un même
paramètre

3.1.1 Qualités d’un estimateur


Soit T = (X1 ; X2 ; :::; Xn ) un estimateur du paramètre inconnu :
On dé…nit l’erreur d’estimation par: T qui est une variable aléatoire.

T = (T E (T )) + (E (T ) )

T E (T ) : représente les ‡uctuations aléatoires de T autour de sa valeur


moyenne.
E (T ) : erreur systématique due au fait que T varie autour de sa
valeur centrale E (T ) et non autour de :
la quantité E (T ) s’appelle le biais.
Il est donc souhaitable d’utiliser des estimateurs sans biais.

22
3.1 Principes généraux xxiii

Estimateur sans biais


Dé…nition
On dit que T est un estimateur sans biais de si

E (T ) =

Exemple

n
1X
> X= Xi ; E X = m =) X : estimateur sans biais de m
n i=1

n
1X 2 n 1
> S2 = Xi X ; E S2 = 2
=) S 2 : estimateur biaisé de 2
n i=1 n

n
X
2 1 2 n
> S = Xi X = S2;
n 1 i=1
n 1
2 n
E S = E S2 = 2
=) S 2
: estimateur sans biais de 2
n 1
Sn
> F = ; E (F ) = p =) F estimateur sans biais de p
n
Remarque
Si

E (T ) ! ; n ! +1; T est un estimateur asymptotiquement sans biais de

On mesure généralement la précision d’un estimateur T par:


h i
2
L’erreur quadratique moyenne (M.S.E) E (T )

On peut écrire:

h i h i
2 2
E (T ) = E (T E (T )) + (E (T ) ))
h i
2
= E T E (T ))2 + (E (T ) ) + 2(T E (T )) (E (T ) )
h i h i
2 2
= E (T E (T )) + E (E (T ) ) + 2E (T E (T )) (E (T ) )=0
=V (T ) =cste

donc h i
2 2
E (T ) = V ar (T ) + (E (T ) )

23
xxiv 3. Estimation

On conclut que de 2 estimateurs sans biais, le plus précis est celui de


variance minimale, i.e si T1 ; T2 2 estimateurs de tel que E (T1 ) = ;
E (T2 ) = 8 h i 9
< E (T1 ) = V ar (T1 ) =
2

=) h i
: E (T2 ) = V ar (T2 ) ;
2

si h i h i
2 2
V ar (T1 ) < V ar (T2 ) =) E (T1 ) < E (T2 )

donc T1 est plus précis que T2 :

Estimateur e¢ cace
Dé…nition
On dit que T est l’estimateur le plus e¢ cace de si:

E (T ) =
V ar (T ) V ar (T 0 ) où T 0 est un autre estimateur sans biais de

Estimateur convergent
Dé…nition
Un estimateur T est dit convergent si sa variance tend vers 0 quand la
taille de l’échantillon augmente.
Exemple
X est un estimateur convergent car
2
V ar X = ! 0; quand n ! +1
n

Théorème de convergence en probabilité d’un estimateur


Soit T un estimateur de , on dit qu’il converge en probabilité vers le
paramètre inconnu :

P
T ! ;n ! +1 () P [jT j "] ! 1; quand n ! +1
() P[ " T + "] ! 1; quand n ! +1

si

1) E (T ) = ou (E (T )) ! ; quand n ! +1
2) V ar (T ) ! 0; quand n ! +1

A présent, on va essayer de déterminer une borne inférieure pour les


variances des estimateurs sans biais pour :

24
3.1 Principes généraux xxv

3.1.2 Quantité d’information de Fisher In ( )


On appelle quantité d’information de Fisher In ( ) apportée par un échan-
tillon sur le paramètre la quantité suivante positive ou nulle ( si elle existe
).
2
0 2 @ ln f (X; )
In ( ) = nE (ln f (X; )) = nE
@
@ 2 ln f (X; )
= nE où f (X; ) : densité de probabilité de X
@ 2
Remarque
Si la densité f n0 est pas une fonction de , alors In ( ) = 0:

Inégalité de Cramer-Rao et e¢ cacité


Sous des conditions très générales, la variance d’un estimateur est toujours
plus grande que In1( ) :
1
V ar (T ) où T est un estimateur de
In ( )
Remarque
Si
1
V ar (T ) = ; T est un estimateur e¢ cace car il a la plus petite variance.
In ( )
Exemple
On admet que le montant X des dépôts de chaque client sur un compte
d’épargne obeit à une loi normale N m; 2 ; m; 2 inconnus et l’on propose
de les estimer en tirant au hasard n clients parmi les titulaires de compte
d’épargne.
Soit Xi v.a: montant des dépôts du client i; i = 1; 2; :::; n:
1) Donner les estimateurs naturels de m et 2 et montrer que l’estimateur
de m est sans biais et convergent en probabilité.
2) On a tiré au hasard 10 clients et obtenu les montants suivants:
4700; 6900; 13500; 22000; 10000; 12000; 14000; 18000; 8600; 9000:
Donner les estimations de m et associés à ces expériences.
3) Montrer que l’estimateur de m est e¢ cace i.e In (m) = V ar1 X = n2
( )
Solution
1) estimateur naturel de m :

n
1X 2
X = Xi ; E X = m; V ar X = ! 0; quand n ! +1
n i=1 n
donc X convergent

25
xxvi 3. Estimation

2
estimateur de :
n
X n
X
1
2 2 2 1 2
S = Xi X ; S = Xi X
n i=1
n 1 i=1

2) Les estimateurs correspondants aux réalisations xi des v.a Xi sont:

x1 + x2 + ::: + x10 4700 + ::: + 9000


x = = = 11870
v 10 10
u n
u1 X
= t
2
s (xi x) = 5227:5
9 i=1

3) on a:
h 0
i2 @ ln f (X; m)
2
In (m) = nE (ln f (X; m))m = nE
@m

2
1 1
(X m 2
) 1 1 X m
ln f (X; m) = ln p e 2 = ln p
2 2 2

" #
2
@ ln f (X; m) @ 1 1 X m X m
= ln p = 2
@m @m 2 2

2
X m n 2 n
In (m) = nE 2
= 4
E (X m) = 4
V ar (X)
n 2 n 1
= 4
= 2
= =) X e¢ cace
V X

3.2 Estimation ponctuelle


3.2.1 Introduction
Soit (X1 ; :::; Xn ) un échantillon prélevé d’une population de loi de proba-
bilité P ( ou F : fonction de répartition) dépendant d’un ou plusieurs
paramètres noté ; il s’agit d’évaluer (estimer) la valeur de sur la base de
l’observation de l’échantillon.

Exemple

26
3.2 Estimation ponctuelle xxvii

Si la loi de probabilité de la population est N m; 2 et si m; 2 sont


inconnues alors = m; 2 2 = R R+ ( espace des paramètres) :
Dé…nition
Un estimateur d’un paramètre est une statistique dont la valeur est
une estimation du paramètre :
L’estimation d’un paramètre par une valeur unique est unique est appelée
estimation ponctuelle.
Exemple
Soit (X1 ; :::; Xn ) un échantillon tel que: E (Xi ) = m; V ar (Xi ) = 2
Xn
On a: x = n1 xi est une estimation ponctuelle de la moyenne m:
i=1
x1 +x2
On a aussi 2 est aussi une estimation ponctuelle de la moyenne m:

3.2.2 Estimation ponctuelle de la moyenne


Soit une population de distribution d’esperance m, de variance 2 :
X : la moyenne empirique de l’échantillon, on sait que E X = m; V X =
2

n !n!+1 0: Ce qui montre que pour n assez grand, les valeurs de X se


rapprochent de m , ce qui permet d’estimer m par X:

3.2.3 Estimation ponctuelle de la variance


A première vue, on pourrait estimer la variance inconnue 2 par S 2 , mais
on a vu que E S 2 6= 2 , donc plutôt estimer 2 par S 2 car E S 2 = 2
V S 2 !n!+1 0, pour un caractère normal de la population :

3.2.4 Estimation ponctuelle de la proportion


On sait que E (F ) = p; V ar (F ) = pq n !n!+1 0
où F : proportion d’individus ayant un caractère dans l’échantillon F =
Sn
n ; où Sn : nombre d’individus possédant le caractère dans l’échantillon.
Donc il est clair qu’on estime p par F:

Remarques
1) En pratique, on tire des échantillons de grande taille pour que la
variance de l’estimateur ! 0 quand n ! +1; dans le but d’avoir une
bonne précision de l’estimateur.
2) Jusqu’à présent, on a présenté les estimateurs par la méthode des
moments ( moyenne, variance,...) mais cette méthode a ses limites. On va
montrer à travers un exemple que cette méthode n’est pas toujours la plus
pertinente.

Exemple

27
xxviii 3. Estimation

La population suit une loi uniforme sur [0; ]; Xi ! U[0; ] de densité


de probabilité
8 1 9
< ; 0 x =
f (x) =
: ;
0 sinon
on sait que
2
E (Xi ) = ; V (Xi ) =
2 12
donc
E X = E (Xi ) =
2
Si est inconnu, son estimateur sans biais, déterminé par la méthode
des moments à partir d’un échantillon (X1 ; X2 ; :::; Xn ) est T ( ) = 2X
puisque
E [T ( )] = =) E [T ( )] = E 2X =
donc 2X est un estimateur sans biais de et de même 2X est un
estimateur convergent car

4 2
V ar 2X = 4V ar X = !n!+1 0
n 12
Après expérience, on considère la réalisation suivante d’un échantillon de
taille 10 de la v.a X : 1:04 0:95 0:29 0:12 1:13 0:51 0:89 1:96 1:36
Ces données numériques conduisent à l’estimation de suivante:
10
X
xi
b1 = 2x = 2 i=1 1:04 + ::: + 1:36
= = 1:89
10 5

donc est estimée par b1 = 1:89


Toute fois, puisque les réalisations de X sont comprises entre 0 et , il
est évident que

xi donc tous les xi =) sup xi


1 i 10

donc b 1:96; ainsi la valeur b2 = 1:96 est " plus vraisemblable que
b1 = 1:89: b = max1 i n xi :

D’où la recherche d’autres méthodes pour estimer le paramètre:( méthode


du maximum de vraisemblance, méthode de Bayes, méthode des moindres-
carrés ).

28
3.2 Estimation ponctuelle xxix

3.2.5 Méthode du maximum de vraisemblance ( MV)


Objectifs
Les estimateurs proposés reposent sur l’idée intuitive qu’un moment in-
connu d’une v.a ou d’une population peut-être estimé ou approché par le
moment équivalent calculé sur un échantillon. Ainsi, le moment d’ordre 1 (
espérance mathématique) ou la moyenne dans une population est habituelle-
ment estimé par la moyenne des observations issues d’un échantillon. Cette
méthode des moments ne convient pas dans toutes les applications pra-
tiques et dans certains cas, elle ne fournit pas les meilleures estimations.
C’est pour cette raison que le staticien Ronald Fisher proposa, dans les
années 1920, la méthode du maximum de vraisemblance. Cette méthode
consiste à rechercher l’estimation du paramètre inconnu qui rend le plus
probable ou le plus vraisemblable l’échantillon observé. Puisque il s’agit de
trouver un maximum, cette méthode fait appel à la notion de dérivée en
mathématique, tout au moins pour le cas où la loi de probabilité est une
fonction dérivable.
Ces estimateurs ont de bonnes propriétés statistiques.

Fonction de vraisemblance
On appelle fonction de vraisemblance, notée L (x1 ; :::; xn ) de l’échantillon
(X1 ; :::; Xn ) la loi (distribution) de probabilité du vecteur aléatoire (X1 ; :::; Xn )
(vecteur aléatoire: c’est un vecteur dont toutes ses composantes sont des
variables aléatoires).

Cas discret
Si les Xi sont des variables aléatoires discrètes (i = 1; :::; n) ; alors:

L (x1 ; :::; xn ; ) = P [(X1 = x1 ) \ (X2 = x2 ) \ ::: \ (Xn = xn )]


= P (X1 = x1 ) P (X2 = x2 ) :::P (Xn = xn ) car les Xi sont indépendantes
Yn
= P (Xi = xi )
i=1

Exemple
Soit un échantillon (X1 ; :::; Xn ) de loi de probabilité de Poisson: L (X) =
P( )

xi
P (X = xi ) = e
xi !

29
xxx 3. Estimation

n
Y xi
L (x1 ; :::; xn ; ) = e
i=1
xi !
X
n

xi
i=1
n
= e n
Y
(xi !)
i=1

Cas continu:
Si les Xi sont des variables aléatoires continues (i = 1; :::; n) ; alors:

L (x1 ; :::; xn ; ) = fX1 ;:::;Xn (x1 ; :::; xn ; )


= fX1 (x1 ) :::fXn (xn )

ou bien
n
Y
L (x1 ; :::; xn ; ) = f (x1 ; :::; xn ) = f (xi )
i=1

Exemple
Soit un échantillon (X1 ; :::; Xn ) de loi de probabilité normale; X !
N m; 2

n
Y
2 1 1
( xi m
)
2
L x1 ; :::; xn ; = p e 2

i=1
2
X
n
1
(xi m)2
1 2 2
= n e i=1

(2 ) 2 n

3.2.6 Estimateur du maximum de vraisemblance (MV)


L’estimation du MV est la valeur b qui, sustituée à dans la fonction
L (x1 ; :::; xn ; ), rend celle-ci maximale.
Dé…nition
L’estimateur noté b = T (X1 ; :::; Xn ) de tel que Lb (X1 ; :::; Xn ) soit
maximum est appelé estimateur du MV du paramètre :

Lb (X1 ; :::; Xn ) = max L (X1 ; :::; Xn )


2

30
3.2 Estimation ponctuelle xxxi

Il s’agit de chercher le maximum sur de L (X1 ; :::; Xn ) c’est à dire


résoudre le système suivant:
8 9
> dL(x1 ;:::;xn ; ) >
< d = 0 =
>
: >
d2 L(x1 ;:::;xn ; )
d 2
<0 ;
ce qui revient à résoudre:
8 9
> d ln L(x1 ;:::;xn ; )
< d =0 >
=
>
: >
d2 ln L(x1 ;:::;xn ; )
d 2
<0 ;
Remarque
L’estimation du MV est b = T (x1 ; :::; xn ) :
L’estimateur du MV est b = T (X1 ; :::; Xn ) :
b solution de L0 = 0 est aussi solution de (ln L)0 = 0:
Une condition nécessaire pour qu’une fonction à plusieurs variables
admette un extremum (max ou min) est que les dérivées partielles d’ordre
1 par rapport aux variables soient nulles.
Exemple:
Soit X ! P ( ), Donner une estiamtion du MV de
xi
P (X = xi ) = e
xi !
on a:
X
n

xi
i=1
n
L (x1 ; :::; xn ; ) = e n
Y
(xi !)
i=1
0 Xn 1
" n
#
B xi
C Y
ln L (x1 ; :::; xn ; ) = n + ln B
@
i=1 C
A ln (xi !)
i=1

n
" n
#
X Y
= n + xi ln ln (xi !)
i=1 i=1

n
X
xi
d ln L (x1 ; :::; xn ; ) i=1
= n+ =0
d
n
X
=) b= 1 xi
n i=1

31
xxxii 3. Estimation

on véri…e que c’est bien un max; f " b < 0?


n
X
xi
d2 ln L (x1 ; :::; xn ; ) i=1
=
d 2 2

au point =b:
n
X
xi
i=1 n2
= !2 = n <0
n
X X
1
xi xi
n2
i=1 i=1

donc b est bien le max de L (x1 ; :::; xn ; ) :


Si n = 6; (0; 2; 2; 3; 1; 2)

X 6
b= 1 1
xi = (10) = 1:67
n i=1 6

3.2.7 Propriétés des estimateurs du MV


1) E (T ) = ou E (T ) !n!+1

2) T !P
n!+1 ((1) + V ar (T ) !n!+1 0)

1 1
la loi de T !n!+1 N ; ; V (T ) =
In ( ) In ( )

1
V (T ) !n!+1 ceci exprime que l’estimateur est asymptotiquement e¢ cace.
In ( )

Remarque
Certains estimateurs obtenus par la méthode des momemts sont les
mêmes que ceux obtenus par la méthode du MV.

3.3 Estimation par intervalle


Introduction
Au lieu de se donner une fonction (estimateur) qui donne une estimation
ponctuelle du paramètre inconnu, on cherche un intervalle dans lequel il
se trouve avec une probabilité contrôlée (et généralement grande). Plus

32
3.3 Estimation par intervalle xxxiii

précisément, soit un paramètre inconnu que l’on veut estimer. On connaît


une estimation ponctuelle b de qui est en général légèrement di¤érente
de , puisque b dépend de l’échantillon tiré. Or, aucun échantillon, aussi
"représentatif" soit-il, ne pourra donner une estimation égale à la vraie
valeur de : Il paraît donc raisonnable de completer l’estimation ponctuelle
par une fourchette, c-à-d la donnée d’un intervalle réel [a; b] qui a une forte
probabilité de contenir , appelé par Neyman intervalle de con…ance de
(IC) : Plus l’intervalle est large, plus la probabilité qu’il contienne est
grande mais moins bonne est la précision de l’estimation. On doit donc
trouver un compromis entre la précision et la …abilité de l’estimation. Pour
trouver cet intervalle, on se …xe à l’avance un coe¢ cient (proche de 1)
appelé niveau de con…ance, noté (1 ), la valeur mesure la probabilité
que [a; b] ne contienne pas la vraie valeur de , (en général, vaut 5%, ou
10%, ou 0.1%). On cherche ensuite les bornes de l’intervalle appelées limites
de con…ance de telle façon que P (a b) = 1 , où a = a (X1 ; :::; Xn ) ;
b = b (X1 ; :::; Xn ), où (X1 ; :::; Xn ) : un échantillon.
Dé…nition
La valeur est appelée seuil de signi…cation et (1 ) est appelée niveau
de con…ance.
Intervalle aléatoire
On appelle intervalle aléatoire tout intervalle dont une extrémité au
moins est une variable aléatoire.
Exemple
1) Soit la v.a X ! N (0; 1), l’intervalle ] 1; X] est un intervalle
aléatoire.

P (2 2] 1; X]) = P (X 2)
= 1 P (X < 2) = 1 (2) où : fonction de répartition de la v.a X
la valeur (2) est lue sur la table de la loi normale standart.
= 1 0:9772 = 0:0228

ou bien:

1 1
P (X 2) = P (0 X 2) = 0:4772 = 0:0228
2 2

2) Soit la v.a X ! N ( ; 1), trouver la probabilité que l’intervalle aléa-


toire [X 1; X + 1] contienne :

33
xxxiv 3. Estimation

P ( 2 [X 1; X + 1]) = P (X 1X + 1)
8 9 8 9
< X 1 = < X 1 =
or X 1 X + 1 () et () et
: ; : ;
X +1 X 1
donc : P (X 1 X + 1) = P ( 1 X 1) ; Z = X ! N (0; 1)
= P( 1 Z 1) = (1) ( 1)
= (1) (1 (1)) = 2 (1) 1 = 2 (0:8413) 1 = 0:6826

Détermination d’un intervalle de con…ance


Le principe de l’estimation par IC est de proposer un encadrement d’un
paramètre inconnu d’une population dont la loi, elle, est connue.
Les di¤érents types de l’intervalle de con…ance IC sont:
* Intervalle bilatéral symétrique; si 1 = 2 = 2 :

* Intervalle bilatéral ; si 1 6= 0; 2 6= 0 et 1 + 2 = :
Parfois il peut arriver que l’on cherche à connaître la borne maximale (ou
minimale) d’un paramètre. Dans ce cas on utilise un intervalle de con…ance
unilatéral. Il en existe de 2 sortes:
* Intervalle unilatéral à gauche; si 2 = 0:
* Intervalle unilatéral à droite; si 1 = 0:
Alors, d’une façon générale on a :

P ( 2 [a; b]) = 1 () P (a b) = 1
donc P ( 2
= [a; b]) =

On choisit dans la plus part des cas un intervalle de probabilité à risques


symétriques 2 c-à-d

P ( < a) = ; P ( > b) =
2 2

34
3.3 Estimation par intervalle xxxv

3.3.1 Intervalle de con…ance d’une moyenne


On distingue 2 cas.
1) connu ( et n 30 ) :
Si X ! N m; 2 ou X !loi quelquonque avec n grand (n 30) :
2
On sait que X ! N m; n ( si X !loi quelquonque, on applique
T.C.L ) et on sait que E X = m; ( estimateur sans biais ).
donc IC de m est symétrique par rapport à X:
Remarque
Lorsque l’estimateur b est sans biais, il est naturel de construire un in-
tervalle centré sur l’estimation ponctuelle obtenue pour :
Donc, en partageant le risque en 2 parties égales et en lisant sur la
table N (0; 1), on peut chercher U 2 véri…ant ce qui suit:
on a:

2
X m
X ! N m; =) Z = ! N (0; 1)
n p
n
où Z est une v.a libre

Dé…nition
On dit qu’une v.a est libre si sadistribution de probabilité ne dépend pas
des paramètres du modèle.
Et donc,

P U2 Z U2 = 1
!
X m
() P U2 U2 =P X U2 p m X +U2 p
p
n
n n
= 1

d’où:
IC = x U2 p ; x+U2 p
n n
et on a :

P U2 Z U2 = 1
() U2 U2 = 1
() U2 1 U2 =1
() 2 U2 1=1
() U2 = 1
2
1
() U2 = 1 , puis lire sur la table N (0; 1) la valeur U 2
2

35
xxxvi 3. Estimation

Exemple
Si = 5% = 0:05 donc 1 = 0:95

1 + 0:95
U2 = = 0:975
2
1
=) U 2 = (0:975) = 1:96

Donc:
= 5% ! U 2 = 1:96
et on obtient:

P X 1:96 p m X + 1:96 p = 0:95


n n

Remarque
On a:

P (U 1 Z U1 2 ) = 1
!
X m
() P U 1
U1 2
=1
p
n

() P X U1 2
p m X U 1
p =1
n n

donc:
IC = x U1 p ; x U 1
p
2
n n

36
3.3 Estimation par intervalle xxxvii

où U 1
et U1 2
sont des valeurs lues dans la table de la loi N (0; 1) :

Remarque: connu et n < 30


La méthode ne s’applique que si nous supposons que tous les Xi sont de
loi normale ( loi de la population normale ) et donc IC de m est le même
que dans le cas connu et n 30:
2) inconnu ( et n < 30 )
Rappel: Loi de Student
Soient deux variables aléatoires indépendantes U et X telles que U !
N (0; 1) , X ! 2n :
On dé…nit alors la v.a T à n degrès de liberté:
U
Tn = q ; Tn ! St (n)
X
n

où sa densité de probabilité est donnée par:

1
f (t) = p n+1
1 n 2
n 2; 2 1 + tn 2

(n) (p)
où : (n; p) =
(n + p)
et
E (Tn ) = 0 si n > 1

n
V ar (Tn ) = si n > 2
n 2
Avec la remarque suivante:

si n ! +1; Tn !Loi N (0; 1)

si n = 1; la loi de student est la loi de Cauchy de d.d.p


1
f (t) =
(1 + t2 )
Donc dans ce cas, on doit supposer que la loi de la population est normale
et puisque est inconnu, on l’estime par S qui est un estimateur sans biais.
on a:
n
X n
2 1 2 1X
2 2
S = Xi X ; S = Xi X
n 1 i=1
n i=1

37
xxxviii 3. Estimation

alors;
2 n
S = S2
n 1
et
2
2
X ! N m; =) X ! N m;
n
X m X m
=) = S
p p
n n
or
p
2 n n
S = S 2 =) S = S p
n 1 n 1
S S
=) p =p
n n 1
D’où:
X m X m
= S
p p
n n

X m
= =T
pS
n 1

X m
et on montre que la v.a T = pS
suit la loi de Student à (n 1) degrès
n 1
de liberté.
En e¤et:

2
X m
X ! N m; =) ! N (0; 1)
n p
n
nS 2 2
et 2
! n 1

donc:
X m
X m p
n
T = =q p
pS S2 n
n 1 n 1 2

X m X m
p p
n n
= q =r
nS 2 1 nS 2
2 2
n 1
n 1
2
X m nS 2
où ! N (0; 1) et 2
! n 1
p
n
=) T ! St (n 1) d:d:l

38
3.3 Estimation par intervalle xxxix

Et on remarque que la v.a T est une statistique libre. Et du fait que la


distribution de Student est symétrique, alors on peut partager le risque
en 2 parties égales, on obtient alors:
!
X m
P t2 S
t2 = 1
p
n 1
F t2 F t2 = 1 or la loi de Student est symétrique
=) 2F t 2 1=1
1
=) F t 2 = 1 =) t 2 = F 1
2 2
Donc:
s s
IC = x t2 p , x+t2 p
n 1 n 1

Remarque
1) Il est possible de déterminer graphiquement ces intervalles; c’est ce
qu’on appelle construction d’abaques. Ce principe est basé sur la construc-
tion d’une carte qui nous donne, par simple lecture, l’intervalle cherché.
2) La quantité
v
u n
u 1 X
W = 2F 1
1 t (xi x)
2
2 n (n 1) i=1

est appelée "étendue de Student". C’est une statistique utile dans cer-
tains problèmes de test.
inconnu ( et n 30 )
La loi de la population est quelquonque, mais comme n 30, donc la loi
de Student converge vers la loi normale ( Quand n ! +1 ), et donc on
remplace t 2 par u 2 :

s s
IC = x u2 p , x+u2 p
n 1 n 1

39
xl 3. Estimation

Remarques
1) Si on considère que le tirage se fait sans remise (exhaustif), alors
2
N n
V ar X =
n N 1
et donc IC de la moyenne dans le cas où connu, la population est de
loi normale ou n 30 si la polulation n’est pas de loi normale.
" r r #
N n N n
IC = x u 2 p , x+u2 p
n N 1 n N 1

2) Un intervalle de con…ance de la moyenne est toujours centré sur une


estimation de cette moyenne issue d’un échantillonnage aléatoire.
Exemple
Les notes de mathématiques d’une promotion nombreuse d’étudiants sont
distribuées normalement. De cette promotion on extrait un échantillon de
9 notes. la note moyenne est 9.55 avec un écart-type de 3.65. Trouver IC
de la moyenne à
a) 0.95
b) 0.99
Solution:

Soit la v.a X : note de mathématiques, E (X) = m; V (X) = 2 :


On se trouve dans le cas où 2 est inconnue, n = 9 < 30 ( on utilise la
loi de Student); x = 9:55; s = 3:65

s s
IC = x t2 p , x+t2 p
n 1 n 1

1
a) = 0:05 = 5% =) 1 = 0:95; t 2 = F 1
2
t2 = t0:025 = 2:306 valeur lue sur la table de Student à 8 d.d.l

3:65 3:65
IC5% = 9:55 2:306 p ; 9:55 + 2:306 p = [6:58; 12:52] (1)
8 8
b) = 0:01 = 1% =) 1 = 0:99; t 2 = t0:005 = 3:355 valeur lue sur la table de Student à 8 d.d.l

3:65 3:65
IC1% = 9:55 3:355 p ; 9:55 + 3:355 p = [5:22; 13:88] (2)
8 8
On remarque que IC5% IC1%

C’est-à-dire l’estimation au seuil 5% est plus précise, ce qui est normal


puisque la probabilité d’erreur est plus grande dans ce cas.

40
3.3 Estimation par intervalle xli

3.3.2 Intervalle de con…ance de la variance


On suppose que la population suit la loi normale N m; 2 ; avant de
déterminer un intervalle de con…ance IC pour la variance, il faut d’abord
chercher un estimateur sans biais pour cette variance.
On considère alors 2 situations.

i) m connu (cas peu fréquent)


2
Dans ce cas, on prend pour estimateur de la statistique dé…nie par:
n
1X 2
s2 = (Xi m)
n i=1
2
qui est le meilleur estimateur de car:
n n
1X 2 1X
E s2 = E (Xi m) = V (Xi )
n i=1 n i=1
2
= du fait de l’indépendance des Xi
donc s2 est sans biais

et
n n
1 X X 2
ns2 2 Xi m 2
2
= 2
(Xi m) = ! n
i=1 i=1
Xi m
car ! N (0; 1)

donc
ns2 n2
V 2
= 4
V s2 = 2n
4
2
=) V s2 = 2n = 4
!n!+1 0
n2 n

ii) m inconnu
2
Dans ce cas, on prend pour estimateur de l’estimateur sans biais
n
X
2 1 2 2 2 2 2 4
S = Xi X ; E S = ; V S = !n!+1 0
n 1 i=1
n 1

et on sait que
n 1 2 n
2
S = 2
S2 ! 2
n 1

2
De i) et ii) on remarque que la distribution de l’estimateur de est une
2
que soit m connu ou non.

41
xlii 3. Estimation

L’objectif est de déterminer un intervalle S12 ; S22 tel que

P S12 2
S22 = 1

On a:

2 ns2 2
P 1 2 1 2
= 1
2 2
1
1 1 2
() P =1
ns2 2 ns2
ns2 2 ns2
() P 2 2
=1
1 2 1

donc
ns2 ns2
IC = 2 , 2
1 2 1

Remarques
1) Si 1 = 2 = 2, alors
" #
ns2 ns2
IC = 2 , 2
1 2 2

2) Si m est connu, la 2 est de n d.d.l


et si m est inconnu, la 2 est de (n 1) d.d.l
Exemple

42
3.3 Estimation par intervalle xliii

Un échantillon de 30 composants extrait d’une population a donné un


écart-type s = 10: Trouver IC à 95% de l’écart-type pour l’ensemble de la
population.
Solution
On a n = 30; s2 = 100; m inconnu, 1 = 0:95 =) = 0:05;
2 = 0:025; 1 2 = 0:975
" #
ns2 ns2
IC = 2 , 2
1 2 2

avec
2
0:025 = 16:047; 21 0:025 = 20:975 = 45:722
2
ces valeurs sont lues sur la table du 29 d.d.l

donc
30 (100) 30 (100)
IC5% = ; = [65:64 , 187:5]
45:722 16:047

3.3.3 Intervalle de con…ance d’une proportion


Dans la population, une proportion p d’individus possède un certain car-
actère. On cherche un intervalle de con…ance IC pour p à partir de la
valeur de F; où F est une variable aléatoire qui représente la proportion
d’individus possédant le caractère dans l’échantillon. ( On suppose que le
tirage est avec remise et n 30), donc on peut approximer la loi de F qui
est binomiale par une loi normale.

pq F p
F ! N p; =) U = p pq ! N (0; 1)
n n

alors:
9? p1 ; p2 2 R= P (p1 p p2 ) = 1
on a
P (u 1
U u1 2
)=1

!
F p
P u 1
p pq u1 2
= 1
n
r r
pq pq
() P u 1
F p u1 2
=1
n n
r r
pq pq
() P F u1 2
p F u 1 =1
n n

43
xliv 3. Estimation

donc r r
pq pq
p1 = f u1 2 et p2 = f u 1
n n
on remarque que p se trouve dans les bornes, donc il faut le remplacer.
1) On remplace p par f et q par 1 f ( car F est un estimateur sans
biais de p et f est une valeur de F ), alors
r r !
f (1 f ) f (1 f )
P F u1 2 p F u 1 =1
n n

ainsi
" r r #
f (1 f ) f (1 f )
IC = f u1 2 , f u 1
n n

Sous les conditions:

np1 (1 p1 ) > 3 et np1 (1 p1 ) > 3

qui permettent l’approximation vers la loi normale.


> Si 1 = 2 = 2 ( intervalle bilateral symétrique ):
" r r #
f (1 f ) f (1 f )
IC = f u 2 , f +u2
n n
2) Méthode par excès:
1
La fonction p ! p (1 p) atteint son maximum pour p = 2 pour p 2 [0; 1]
donc:
1 1
p =) pq
2 r 4
r
pq 1 1
=) = p
n 4n 2 n
donc
1 1
IC = f u1 2
p , f u 1
p
2 n 2 n
1 1
IC = f u2 p , f +u2 p si 1 = 2 =
2 n 2 n 2
avec:
1
P p2 f u2 p 1
2 n
Exemple
On veut estimer, dans une population de plusieurs millions, le pourcent-
age p de sujets porteurs d’un certain virus. On examine un échantillon de
12600 personnes. Le virus est détecté chez 630 d’entre elles.

44
3.3 Estimation par intervalle xlv

Déterminer IC , = 1%; pour p:


Solution
On a
630
n = 12600; f = = 0:05; 1 f = 0:95
12600
u 2 = u0:005 ; u2 = 1 = 0:995 =) u 2 = 2:58 cette valeur est lue sur la table N (0; 1)
2

r
0:05 (0:95)
p1 = 0:05 2:58 = 0:045
12600
r
0:05 (0:95)
p2 = 0:05 + 2:58 = 0:055
12600

IC1% = [0:045 ; 0:055]


avec la condition que

np1 (1 p1 ) = 541:485 > 3


np2 (1 p2 ) = 654:885 > 3

3.3.4 Intervalle de con…ance de la di¤érence de deux


moyennes
On extrait un échantillon de taille ni de la population Pi (i = 1; 2) de
moyenne mi et d’écart-type i :
Dans le cas de distributions normales et d’indépendance des 2 échantil-
lons on a:
2 2
1 2
X1 X2 ! N m1 m2 ; +
n1 n2
2 2
1 2
car X 1 ! N m1 ; ; X2 ! N m2 ;
n1 n2

donc:
X1 X2 (m1 m2 )
q 2 2
! N (0; 1)
n1
1
+ n2
2

ainsi IC , si le tirage se fait avec remise, est alors:


s s
2 2 2 2
1 2 1 2
(x1 x2 ) u2 + (m1 m2 ) (x1 x2 ) + u 2 +
n1 n2 n1 n2
ici 1 = 2 =
2

45
xlvi 3. Estimation

dans le cas général: 1 6= 0; 2 6= 0; 1 + 2 =


s s
2 2 2 2
1 2 1 2
(x1 x2 ) u1 2
+ (m1 m2 ) (x1 x2 ) u 1
+
n1 n2 n1 n2

46

Vous aimerez peut-être aussi