0% ont trouvé ce document utile (0 vote)
55 vues8 pages

Estimation

Transféré par

chakrimeryem31
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
55 vues8 pages

Estimation

Transféré par

chakrimeryem31
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

 CPGE Prince Héritier Moulay El Hassan - Ouarzazate  Année scolaire : 2023-2024

CH 13 : ESTIMATION

 Classe : 2 ECS

I. Estimation Ponctuelle I.2. Définitions


Définition 5Estimateur
I.1. Échantillonnage

Définition 1 Soit ( X1 , X2 , . . . , Xn ) un échantillon d’une variable X dont la loi dépend d’un paramètre θ, avec θ ∈ Θ ⊂ R.
On appelle estimateur de θ toute variable aléatoire fonction de X1 , X2 , . . . , Xn et à valeurs dans Θ. Autrement dit,
On appelle échantillon de taille n ( n-échantillon) la donnée de n variables aléatoires X1 , . . . , Xn indépendantes et de l’estimateur Tn est de la forme Tn = f ( X1 , X2 , . . . , Xn )
même loi. Cette loi est notée Lθ , sa fonction de répartition Fθ . avec f une application de R n dans R.
Leur loi commune est alors appelée loi-mère de l’échantillon
Pour ω ∈ Ω, on appelle réalisation de cet échantillon (ou échantillon observé), le n-uplet de réels
Définition 6Estimation

( X1 (ω), X2 (ω), . . . , Xn (ω)) = ( x1 , x2 , . . . , xn )


Soit Tn = f ( X1 , X2 , . . . , Xn ) un estimateur de θ.
Une estimation de θ est une réalisation de Tn : tn = f ( x1 , x2 , . . . , xn )
où ( x1 , x2 , . . . , xn ) est une réalisation de l’échantillon ( X1 , X2 , . . . , Xn ).
 Exemple 2

• Dans le cas où les Xi suivent une loi exponentielle de paramètre λ = θ, alors on a Remarque 7
L’estimation f ( x1 , x2 , . . . , xn ) ne dépend que de l’échantillon ( x1 , x2 , . . . , xn ) observé. L’estimation f ( x1 , x2 , . . . , xn )
∀θ ∈ R∗+ , ∀ x > 0, Pθ ( Xi ⩽ x) = 1 − e−θx ne dépend pas de θ.

• Dans le cas où les Xi suivent une loi de Bernoulli de paramètre p = θ, alors on a


 Exemple 8
∀θ ∈ [0, 1], Pθ ( Xi = 1) = θ • Soient donc ( X1 , . . . , Xn ) un n-échantillon de variables aléatoires de loi mère P (λ), λ ∈ R∗+ .
X1 + · · · + X n
Si n = 5 une réalisation de cet échantillon est par exemple (1, 1, 1, 1, 1), (0, 1, 0, 1, 1) Alors T = est un estimateur de λ.
n
• On considère un dé dont on ne sait pas s’il est pipé ou non. On lance le dé n fois. Au k-ième jet du
Définition 3 dé, on associe la variable aléatoire Xk qui prend la valeur 1 si le résultat obtenu est 6 , et 0 dans
les autres cas. Les variables Xk suivent une loi de Bernoulli de paramètre p dont ( X1 , X2 , . . . , Xn )
Si X est une variable aléatoire sur (Ω, A ), on notera, si elle existe, Eθ ( X ) l’espérance de X pour la probabilité Pθ . est un n-échantillon. Dans cet exemple, on prend θ = p et Θ = [0, 1]. La variable aléatoire
De même, si X admet une variance pour la probabilité Pθ , on note Vθ ( X ) cette variance. 1
Tn = ( X1 + X2 + . . . + Xn ) (moyenne empirique de l’échantillon) prend ses valeurs dans
n
[0, 1]. C’est un estimateur de p(= θ). On peut envisager bien d’autres estimateurs de Tn . Par exemple

n n −1
 Exemple 4 2
Un = ∑
n ( n + 1) k =1
kXk , Vn = ∑ X k X k −1 Bn = 0
1 k =0
Si Xi suit une loi exponentielle de paramètre θ, alors Eθ ( Xi ) = .
θ
sont des estimateurs de p. En l’absence d’autres indications, on se demande pourquoi on pourrait les
Si Xi suit une loi de Bernoulli de paramètre p = θ, on a Eθ ( Xi ) = θ et Vθ ( Xi ) = θ(1 − θ).
envisager, mais ils existent, comme beaucoup d’autres.

CH 13 : Estimation 1/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


• Si ( X1 , . . . , Xn ) est un n-échantillon de loi mère U ([ a, b]) de paramètre vectoriel inconnu θ = 3) Dans le cas où la loi-mère possède une espérance m et une variance σ 2 (qu’une fois encore, nous devrions
( a, b) ∈ R2 , alors : noter m(θ) et σ 2 (θ) ), posons

Tn = max ( X1 , . . . , Xn ) − min ( X1 , . . . , Xn ) 1 n 2
n i∑
S̃n = Xi − X n .
=1
est un estimateur de g (θ) = b − a. Un autre estimateur sont possible, comme le suivant :
Alors
n  n  
Un = 2Xn . fn = 1 ∑ Xi − Xn 2 = 1 ∑ X 2 − 2Xi Xn + Xn 2
S i
n i =1 n i =1
n n
1 1 1 n 2 1 n 2
= ∑ Xi2 − 2Xn ∑ Xi + ∑ Xn = ∑ Xi2 − Xn .
Définition 9 n i =1 n i =1 n i =1 n i =1
| {z }
= Xn
On appelle moyenne empirique l’estimateur :

X1 + · · · + X n
Xn = . Et donc par linéarité de l’espérance,
n
  n        
fn = 1 ∑ E X 2 − E Xn 2 = E X12 − E Xn 2 .
E S i
n i =1
I.3. Biais d’un estimateur
Définition 10 Une double application de la formule de Huygens nous donne alors
 
E X12 = V ( X1 ) + E ( X1 )2 = σ 2 + m2
Soit Tn un estimateur de g (θ). Si Tn admet une espérance pour tout θ, on appelle biais de Tn le réel
   2 1 n σ2
2
et E Xn = V Xn + E Xn = 2 ∑ V ( Xi ) + m2 = + m2 .
b Tn (θ) = Eθ ( Tn ) − g (θ). n i =1 n
 
Et donc enfin E S fn = n − 1 σ 2
Définition 11 n
Par conséquent, le biais de Sen en tant qu’estimateur de σ 2 est
La variable aléatoire Tn est un estimateur sans biais de g (θ) si b Tn (θ) = 0, c’est-à-dire si Eθ ( Tn ) = g (θ)
    n−1 2 σ2
bθ Sen = Eθ Sen − σ 2 = σ − σ2 = − .
n n
n e
 Exemple 12 Ainsi, Sen est un estimateur biaisé de σ 2 , alors que Sn est un estimateur sans biais de σ 2
  n−1
n e n  
1) Soient ( X1 , . . . , Xn ) un n-échantillon de variables aléatoires admettant une espérance m puisque : Eθ Sn = Eθ Sen = σ 2 .
n−1 n−1
n
2
Les estimateurs An = ∑
n ( n + 1) k =1
kXk et Bn = 0 de m sont-ils sans biais ? 4) Soit X une variable aléatoire suit une uniforme continue sur un intervalle [ a, b],et un n-échantillon
( X1 , X2 , . . . , Xn ) de la loi de X.
2) Soient X une variable aléatoire d’espérance m et de variance σ 2 et un n-échantillon ( X1 , X2 , . . . , Xn ) et l’estimateur Tn = sup Xk − inf Xk de b − a.
de la loi de X. On suppose que m est connu, monter que k∈J1,nK k∈J1,nK
!  
1 n Alors E ( Tn ) = E −E inf Xk .
Tn = ∑ ( Xi − m)2 sup Xk
k∈J1,nK
n i =1 k∈J1,nK

x−a
est un estimateur sans biais de σ 2 . La fonction de répartition de tous les Xk est FXk = 1 .
b − a [ a,b]

CH 13 : Estimation 2/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


Posons Sn = sup Xk .  Exemple 16
k∈J1,nK 
 n • La suite Xn n ⩾1 des moyennes empiriques est une suite d’estimateurs de l’espérance m de la loi mère.
x−a
On sait que la fonction de répartition de Sn est alors FSn ( x) = 1 [ a,b] . • Dans le cas où les Xi suivent une loi uniforme sur [0, θ], en posant Tn = max ( X1 , . . . , Xn ),
b−a
Z +∞  Z alors ( Tn )n⩾1 est une suite d’estimateurs de θ.
( t − a ) n −1 b ( t − a ) n −1
Donc E (Sn ) = nt 1 [ a,b ] t dt = n t dt soit, en posant
−∞ (b − a)n a (b − a)n
Z b− a
n a + nb Définition 17
u = t − a, E (Sn ) = (u + a)un−1 du = .
(b − a)n 0 n+1
De façon analogue, en posant In = inf Xk , et après des calculs analogues, on trouve E ( In ) = Une suite d’estimateurs de g (θ) est dite asymptotiquement sans biais si
k∈J1,nK
b + na lim bθ ( Tn ) = 0.
n+1 n→+∞

( a + nb) − (b + na) n−1


Alors E ( Tn ) = E (Sn ) − E ( In ) = = ( b − a ).
n+1 n+1
2  Exemple 18
Par suite Tn est donc un estimateur biaisé de b − a, le biais étant égal à − ( b − a ).
n+1
1) Nous avons déjà vu que pour tout n, Xn est un estimateur sans biais de l’espérance m, donc ( Tn )n⩾1
Proposition 13 est une suite d’estimateurs de m, asymptotiquement sans biais.

2) Dans le cas où la loi-mère est une loi exponentielle E (θ), alors Xn n⩾1 est une suite d’estimateurs
Soient ( X1 , . . . , Xn ) un n-échantillon de variables aléatoires admettant une espérance m (que l’on devrait en fait 1
asymptotiquement sans biais de .
noter (m(θ)) pour tout θ ∈ Θ, alors θ
1 n 3) Soit X une variable aléatoire suit une uniforme continue sur un intervalle [ a, b],et un n-échantillon
n i∑
Xn = Xi
=1 ( X1 , X2 , . . . , Xn ) de la loi de X.
est un estimateur sans biais de m. et l’estimateur Tn = sup Xk − inf Xk de b − a.
k∈J1,nK k∈J1,nK

2
Démonstration. Pour tout i ∈ J1, nK, on a Eθ ( Xi ) = m, et donc par linéarité de Eθ , On a : bθ ( Tn ) = − (b − a), donc Tn est asymptotiquement sans biais.
 n+1
1 n
Eθ Xn = ∑ Eθ ( Xi ) = m. ■
n i =1
I.5. Risque quadratique d’un estimateur
Définition 19
 Exemple 14
1 n Soit Tn un estimateur de θ. Si pour tout θ de Θ, Tn admet une variance (ou un moment d’ordre 2 ), on appelle risque
n i∑
Si les Xi suivent la loi exponentielle de paramètre λ, alors Xn = Xi est un estimateur sans biais de
=1 quadratique de Tn le réel  
1
. rθ ( Tn ) = Eθ ( Tn − θ)2 .
λ

I.4. Estimateurs asymptotiquement sans biais


 Exemple 20
Définition 15
X1 + · · · + X n
Supposons que la loi-mère soit une loi de Poisson P (λ). Alors Xn = est un estimateur
n
Une suite d’estimateurs de g (θ) est la donnée pour tout n ⩾ 1 d’un estimateur Tn de g (θ). En particulier, chaque sans biais de λ.
Tn est de la forme f n ( X1 , . . . , Xn ).  2   1 n λ
De plus Eθ Xn − λ = Vθ Xn = 2 ∑ V ( Xi ) = 2 .
n i =1 n

CH 13 : Estimation 3/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


Tn
Proposition 21 Décomposition biais - variance du risque quadratique Pθ (| Tn − θ| ⩾ ε) = Pθ (θ − Tn ⩾ ε) = Pθ ( [ X ⩽ θ − ε])
1 in
i=
θ−ε
= ∏in=1 Pθ ( Xi ⩽ θ − ε) = θ −→ 0
n→∞
Si pour tout θ de Θ, Tn admet une variance (ou un moment d’ordre 2), alors on a

rθ ( Tn ) = bθ ( Tn )2 + Vθ ( Tn ) . Proposition 26

X1 + · · · + X n
Démonstration. Si la loi mère admet une espérance m et une variance σ 2 , alors Xn = est un estimateur sans biais
n
On écrit convergent de m.

( Tn − θ)2 = ( Tn − Eθ ( Tn ) + bθ ( Tn ))2 = ( Tn − Eθ ( Tn ))2 + 2bθ ( Tn ) ( Tn − Eθ ( Tn )) + bθ ( Tn )2 Démonstration. Nous avons déjà prouvé qu’il s’agissait d’un estimateur sans biais, et le fait qu’il soit convergent est une
ré-formulation de la loi faible des grands nombres. ■
Par linéarité de l’espérance,
 on a 
rθ ( Tn ) = Eθ ( Tn − Eθ ( Tn ))2 + 2bθ ( Tn ) Eθ ( Tn − Eθ ( Tn )) + bθ ( Tn )2 Or Eθ ( Tn − Eθ ( Tn )) = 0,
 
donc rθ ( Tn ) = Eθ ( Tn − Eθ ( Tn ))2 + bθ ( Tn )2 = Vθ ( Tn ) + bθ ( Tn )2 . ■
 Exemple 27 Considérons un n-échantillon iid de la loi uniforme sur un intervalle [0, θ], où θ est un réel
strictement positif. On sait que la moyenne empirique X n de l’échantillon est un estimateur sans biais et
Corollaire 22 ( Risque quadratique d’un estimateur sans biais) θ
convergent de l’espérance de la loi mère.
Si l’estimateur Tn est sans biais et s’il admet une variance, alors on a rθ ( Tn ) = Vθ ( Tn ) . 2

Proposition 28 Condition suffisante de convergence d’un estimateur


 Exemple 23
Si pour tout θ de Θ, Tn admet une variance (ou un moment d’ordre 2), si
• On suppose que X, la loi mère d’échantillon suit une loi de Bernoulli de paramètre p. Considérons
1 n rθ ( Tn ) −→ 0, alors Tn est un estimateur convergent de θ.
n→+∞
n k∑
Xn = Xk (moyenne empirique de l’échantillon) comme un estimateur de p. Les résultats
=1
obtenus plus haut permettent de conclure que le risque quadratique de l’estimateur X n est sa variance, h i
p (1 − p ) Démonstration. Pour ε > 0, on a : [| Tn − θ| > ε] = ( Tn − θ)2 > ε2 .
c’est à dire .
n Comme ( Tn − θ)2 est une variable aléatoire positive admettant une espérance, on applique l’inégalité de Markov
 
  E ( Tn − θ)2 rθ ( Tn )
I.6. Estimateurs convergents P ( Tn − θ)2 > ε2 ⩽ = .
ε2 ε2
Définition 24 Ainsi par encadrement, on a : P (| Tn − θ| > ε) −→ 0. ■
n→+∞
Une suite ( Tn )n⩾1 d’estimateurs de g (θ) est dite convergente si pour tout θ ∈ Θ, la suite ( Tn ) converge en
probabilité vers g (θ). C’est-à-dire que Proposition 29 CS de convergence d’un estimateur asymptotiquement sans biais

∀θ ∈ Θ, ∀ε > 0, Pθ (| Tn − g (θ)| ⩾ ε) −→ 0. Si l’estimateur Tn est sans biais (ou asymptotiquement sans biais) et s’il admet une variance, si
n→+∞
Vθ ( Tn ) −→ 0, alors Tn est un estimateur convergent de θ.
n→+∞

 Exemple 25 Considérons un n-échantillon iid de la loi uniforme sur un intervalle [0, θ], où θ est un réel Démonstration. D’après la décomposition biais-variance, on a rθ ( Tn ) = bθ ( Tn )2 + Vθ ( Tn ) .
strictement positif. Si Tn = max ( X1 , . . . , Xn ), alors ( Tn ) est une suite d’estimateur convergent de θ. Or, d’après les hypothèses, on a : bθ ( Tn ) −→ 0 et Vθ ( Tn ) −→ 0. ■
n→+∞ n→+∞
En effet, pour 0 < ε < θ, on a :

CH 13 : Estimation 4/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


Proposition 30 Ainsi,
θ2 n 2
r ( Mn ) = b ( Mn ) 2 + V ( Mn ) = + θ2 = θ2 .
Si ( Tn )n∈N∗ est une suite convergente d’estimateurs de g (θ) et si f est une fonction continue sur R à valeurs réelles, ( n + 1)2 ( n + 1)2 ( n + 2) (n + 1)(n + 2)
alors ( f ( Tn ))n∈N∗ est une suite convergente d’estimateurs de f ( g (θ)). n+1
D’autre part, nous savons que Mn0 = Mn est un estimateur sans biais de θ et donc
n
  ( n + 1)2 1
r Mn0 = V Mn0 = V ( Mn ) = θ2 .
 Exemple 31 n2 n ( n + 2)

Soit ( X1 , . . . , Xn ) un échantillon de la loi géométrique de paramètre p. Montrer que la variable Tn = Et donc r Mn0 < r ( Mn ) : Mn0 est un meilleur estimateur que Mn .
n
est un estimateur convergent de p. D’autre par, nous avons : La moyenne empirique X n de l’échantillon vérifie
X1 + · · · + X n
n
1  θ
n i∑
On remarque que Tn est l’inverse de Xn = Xi . La loi géométrique de paramètre p admet une espérance Eθ X n = Eθ ( X ) = .
=1 2
1
égale à et une variance.
p On en déduit que Tn = 2X n est un estimateur sans biais de θ. De plus,
Donc la variable Xn est un estimateur sans biais de 1/p. 
 4 θ2 θ2
rθ ( Tn ) = Vθ 2X n = = .
D’après le loi faible des grands nombres, la suite Xn converge en probabilité vers 1/p. Donc Xn est un n 12 3n
estimateur convergent de 1/p.
La fonction f : t 7−→ 1/t est continue sur R+∗ . Elle est donc continue en 1/p. On en déduit que la suite
( Tn ) converge en probabilité vers f (1/p) = p. Donc Tn est un estimateur convergent de p. II. Estimation par intervalle de confiance

Dans tout ce paragraphe :


I.7. Comparaison de deux estimateurs • ( X1 , . . . , Xn ) est un échantillon i.i.d. de même loi mère de paramètre inconnu θ ∈ Θ,
Proposition 32 • pour tout n ∈ N ∗ , Un = φn ( X1 , . . . , Xn ) et Vn = ψn ( X1 , . . . , Xn ) sont des estimateurs de g (θ) tels que
Pθ (Un ⩽ Vn ) = 1 pour tout θ ∈ Θ (Un est inférieur à Vn Pθ -presque sûrement).
Si l’on a deux estimateurs Tn et Un de θ, on considérera que Tn est meilleur que Un si pour tout θ ∈ Θ et pour n
assez grand rθ ( Tn ) ⩽ rθ (Un ) .
II.1. Intervalles de confiance

 Exercice 34 Considérons un n-échantillon d’une loi de Bernoulli X ,→ B( p) dont on veut estimer p


 Exemple 33
On a pu voir précédemment que l’estimateur Tn = X n est un estimateur non biaisé et convergent
Soit des Xi suivent la loi uniforme sur [0, θ], et soit Mn = max ( X1 , . . . , Xn ).
1) Donner le risque quadratique de Tn .
Nous avons alors donné précédemment une densité de Mn , qui est p (1 − p )
 2) Soit ε > 0. Montrer que P ( p ∈ [ Tn − ε; Tn + ε]) ⩾ 1 −
n −1 nε2

n x si x ∈ [0, θ] 3) Considérons donné le problème suivant : étant donné un réel α ∈]0; 1[ (appelé niveau de confiance
f θ : x 7→ θn

0 ou seuil), déterminer un intervalle Iα (appelé intervalle de confiance) ne dépendant pas de p,
sinon
contenant la vraie valeur de p avec probabilité supérieure à 1 − α. c-à-d P ( p ∈ Iα ) ⩾ 1 − α.
  Z Z θ 1
θ x n +1 n a- Montrer que ∀ p ∈ [0, 1] p(1 − p) ⩽
Alors E Mn2 = x2 f θ ( x)dx =
dx = θ2 . Et donc :
n 4
0 0 θ n n + 2 b- En déduire un intervalle de confiance pour p
   2
2 n n n
V ( Mn ) = E Mn − E ( Mn ) =
2
θ −
2
θ = θ2 . Solution 1 1) rθ ( Tn ) = p(1 − p)/n) de p.
n+2 n+1 ( n + 1)2 ( n + 2)

CH 13 : Estimation 5/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


2) À n fixé, l’inégalité de Bienaymé-Tchebychev donne alors : Intervalle de confiance par l’inégalité de Bienaymé-Tchebychev

p (1 − p ) p (1 − p ) Soit X une variable aléatoire réelle ayant un moment d’ordre 2, alors on a :


P (| Tn − p| > ε) ⩽ 2
⇐⇒ P (| Tn − p| ⩽ ε) ⩾ 1 −
nε nε2
p (1 − p ) V (X )
⇐⇒ P ( Tn ∈ [ p − ε; p + ε]) ⩾ 1 − ∀ε > 0, P (| X − E( X )| > ε) ⩽ P (| X − E( X )| ⩾ ε) ⩽ .
nε2 ε2
p (1 − p )
⇐⇒ P ( p ∈ [ Tn − ε; Tn + ε]) ⩾ 1 − V (X )
nε2 Ce qui s’écrit aussi : ∀ε > 0, P (| X − E( X )| ⩽ ε) ⩾ 1 − .
ε2
Inégalité de Bienaymé-Tchebychev pour un estimateur sans biais :
3) Par l’observation précédente, il suffit de déterminer ε tel que
Soit Tn un estimateur sans biais de θ admettant un moment d’ordre 2, alors
r
p (1 − p ) p (1 − p ) Vθ ( Tn )
1− ⩾ 1 − α ⇐⇒ ε ⩾ . ∀ε > 0, P (| Tn − θ| ⩽ ε) ⩾ 1 −
nε2 αn ε2

Comment déterminer un intervalle de confiance grâce à l’inégalité de Bienaymé- Tchebychev ?


On a alors " r r #!
p (1 − p ) p (1 − p ) Pour trouver deux variables Un et Vn telles que P (Un ⩽ θ ⩽ Vn ) ⩾ 1 − α, on applique l’inégalité de Bienaymé-Tchebychev
P p ∈ Tn − ; Tn + ⩾ 1 − α.
αn αn à un estimateur Tn sans biais de θ :

Vθ ( Tn )
Il apparaît alors un problème ; l’intervalle censé encadrer p dépend lui-même de p. Mais qu’à cela ne tienne, on voit que ∀ε > 0, P (| Tn − θ| < ε) ⩾ 1 − .
ε2
p 7→ p(1 − p) est majorée par 1/4 sur [0; 1] ou encore que
On cherche alors à majorer Vθ ( Tn ) pour tout θ ∈ Θ. S’il existe M > 0 tel que ∀θ ∈ Θ, Vθ ( Tn ) ⩽ M alors
" r r # " r r #
p (1 − p ) p (1 − p ) 1 1
Tn − ; Tn + ⊂ Tn − ; Tn + M
αn αn 4αn 4αn ∀ε > 0, P (| Tn − θ| < ε) ⩾ 1 − .
ε2
" r r #! r
1 1 M α
et on peut donc proposer un encadrement P p ∈ Tn − ; Tn + ⩾ 1 − α. Pour que α = on pose ε = , afin d’avoir
4αn 4αn ε2 M
 r 
α
Définition 35 P | Tn − θ| ⩽ ⩾ 1−α
M

Soit α ∈]0, 1 [ . On dit que [Un , Vn ] est un intervalle de confiance de g (θ) au niveau de risque α, ou au niveau de donc  r r 
α α
confiance 1 − α si pour tout θ ∈ Θ, P Tn − ⩽ θ ⩽ Tn + ⩾ 1 − α.
M M
 r r 
Pθ (Un ⩽ g (θ) ⩽ Vn ) ⩾ 1 − α. α α
L’intervalle Tn − , Tn + est un intervalle de confiance pour θ au niveau 1 − α.
M M

Remarque 36 • P ( g (θ) ∈
/ [Un ; Vn ]) ⩽ α. Proposition 37

Si ( X1 , . . . , Xn ) est un n-échantillon i.i.d. de loi de Bernoulli de paramètre p inconnu, alors


• En pratique, le risque α étant donné, on utilise un estimateur non biaisé Tn de g (θ) et on cherche ε > 0 tel que
 
P (| Tn − g (θ)| ⩽ ε) ⩾ 1 − α à l’aide de l’inégalité de Bienaymé-Tchébychev ou du théorème central limite (ap- 1 1
Xn − √ , Xn + √
proximation par la loi normale). 2 nα 2 nα

est un intervalle de confiance de p au niveau de confiance 1 − α.


• Les bornes de l’intervalle de confiance ne doivent jamais dépendre du paramètre à estimer.

CH 13 : Estimation 6/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


 Exercice 38 Soit des Xi suivent la loi uniforme sur [0, θ]. On choisit couramment a = −b (intervalle centré en la moyenne empirique). Dans ce cas, on a :
1) Montrer que X n est un estimateur biaisé de θ.
Φ(b) − Φ( a) = Φ(b) − Φ(−b) = Φ(b) − (1 − Φ(b)) = 2Φ(b) − 1.
2) Proposer alors un estimateur Vn de θ sans biais, obtenu comme transformation simple de X n .
α
3) Montrer, à l’aide de l’inégalité de Bienaymé-Tchébychev, que On cherche alors b tel que : 2Φ(b) − 1 = 1 − α ⇔ Φ(b) = 1 − .
2
Φ étant continue et strictement croissante sur R, elle réalise une bijection de R dans Φ(R ) =]0, 1[. Il existe donc un unique
θ2 α
P (|Vn − θ| > ε) ⩽ . réel tα tel que Φ (tα ) = 1 − . On pose ainsi pour la suite b = tα , et a = −tα .
3nε2 2
Étape 3 : Expliciter l’intervalle de confiance :
4) Montrer que On résout l’inéquation suivante afin d’isoler p :
" r r # p p
θ2 θ2 Vn Vn √ Xn − p p (1 − p ) p (1 − p )
θ ∈ Vn − ; Vn + ⇐⇒ ⩽θ⩽ . − tα < np ⩽ tα ⇔ − tα √ < X n − p ⩽ tα √
3nα 3nα 1 + √1 1 − √1 p (1 − p ) n n
3nα 3nα p p
p (1 − p ) p (1 − p )
⇔ X n − tα √ < p ⩽ X n + tα √
5) En déduire un intervalle de confiance au risque α pour θ. n n
p p !
p (1 − p ) p (1 − p )
II.2. Intervalle de confiance asymptotique On a donc : lim P X n − tα √ < p ⩽ X n + tα √ = 1−α
n→+∞ n n
1
Définition 39 Comme précédemment, nous ne connaissons pas p mais nous savons que p(1 − p) ⩽ , de sorte que :
4
 
On dit que [Un , Vn ] est un intervalle de confiance asymptotique de g (θ) au niveau de confiance 1 − α (ou niveau tα tα
lim P Xn − √ ⩽ p ⩽ Xn + √
de risque α ) si pour tout θ ∈ Θ, il existe une suite (αn ) à valeurs dans [0, 1], de limite α, telle que n→+∞ 2 n 2 n
p p !
p (1 − p ) p (1 − p )
Pθ (Un ⩽ g (θ) ⩽ Vn ) ⩾ 1 − αn ⩾ lim P Xn − tα √ < p ⩽ X n + tα √ = 1 − α.
n→+∞ n n

On obtient ainsi le résultat suivant :


Intervalle de confiance asymptotique du paramètre d’une loi de Bernoulli
Proposition 40
Étape 1 : Énoncer le Théorème central limite :
Soit ( Xn ) une suite de variables i.i.d. suivant la même loi de Bernoulli de paramètre p inconnu. On pose, comme tou- Un intervalle de confiance asymptotique de p au niveau de confiance 1 − α est
X1 + · · · + X n
jours, Xn = . Alors X1 + · · · + Xn suit la loi binomiale B (n, p). De plus, nous savons que  
n tα tα
X1 + · · · + Xn − np √ Xn − p Xn − √ , Xn + √ .
p = np converge en loi vers une variable X suivant une loi N (0, 1). 2 n 2 n
np(1 − p) p (1 − p )
Donc pour tous a < b ∈ R
! Intervalle de confiance asymptotique de l’espérance
√ Xn − p
lim P a⩽ np ⩽b = P ( a ⩽ X ⩽ b ) = Φ ( b ) − Φ ( a ).
n→+∞ p (1 − p )
 Exercice 41 Soit ( Xn ) une suite de variables i.i.d., que nous supposerons posséder un moment d’ordre 4. On
n 
Étape 2 : Fixer le niveau de confiance : note m l’espérance commune des Xi et σ 2 leur variance. on note : S fn = 1 ∑ Xi − Xn 2
On souhaite obtenir un intervalle de confiance asymptotique au niveau de confiance 1 − α. Pour cela, on doit avoir : n i =1
1 n 2 P  2
n i∑
Φ(b) − Φ( a) ⩾ 1 − α 1) Justifier que : X i → E X1 .
=1
2 P
Il y a une infinité de façon de choisir a et b. 2) Montrer que : Xn −→ m2 .

CH 13 : Estimation 7/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


!
fn = 1 n 2 2 σ P Proposition 44 Estimateur convergent de l’écart-type d’une loi de Bernoulli
n i∑
3) Vérifier que : S Xi − Xn . En déduire que : q −→ 1
=1 f
Sn
Soit ( Xn ) une
qsuite de variables aléatoires i.i.d. de loi de Bernoulli de paramètre
q p inconnu.
  
Alors Tn = Xn 1 − Xn est un estimateur convergent de l’écart-type p(1 − p).
√ Xn − m
4) Soit α ∈]0, 1 [ fixé, Montrer que lim P −tα ⩽ n q ⩽ tα  = 1 − α.
n→+∞ fn
S
Proposition 45 Cas de la loi de Bernoulli
où tα est un réel a déterminer. 
Soit ( X1 , X2 , . . . , Xn ) est un n-échantillon d’une loi de Bernoulli. On utilise alors X n 1 − X n comme estimateur
5) En déduire un intervalle de confiance asymptotique de m au niveau de risque α de σ 2 , afin d’obtenir
 s  s 
Xn 1 − Xn Xn 1 − Xn
 X n − tα , X n + tα 
n n
Proposition 42

qui est un intervalle de confiance asymptotique pour m de niveau 1 − α.


Si les ( Xn ) possèdent un moment d’ordre 4 , alors un intervalle de confiance asymptotique de m au niveau de risque
 q q 
tα S fn tα S fn
α est  Xn − √ , Xn + √  . Remarque 46
n n
Soit ( Xn ) une suite de variables aléatoires i.i.d. de loi de Bernoulli de paramètre p inconnu. Soit α ∈]0, 1[. On a obtenu trois
intervalles de confiance au niveau de confiance 1 − α :
 
Proposition 43 1 1
• grâce à l’inégalité de Bienaymé-Tchebychev (BT) :Xn − √ , Xn + √
2 nα 2 nα
Dans le cas de variables de Bernoulli de paramètre p, on obtient  
tα tα
q q  • grâce au théorème limite central TCL1 : Xn − √ , Xn + √
 2 n 2 n
tα Sfn fn
tα S  q q 
lim P  Xn − √ ⩽ p ⩽ Xn + √  = 1 − α. 
n→+∞ n n Xn 1 − Xn Xn 1 − Xn
• grâce au théorème limite central TCL2  Xn − tα √ , X n + tα √ 
n n

CH 13 : Estimation 8/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate

Vous aimerez peut-être aussi