0% ont trouvé ce document utile (0 vote)
25 vues95 pages

Methodes Estimations

Transféré par

mohamedlemin23014
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
25 vues95 pages

Methodes Estimations

Transféré par

mohamedlemin23014
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Statistique inférentielle

Mohamed-Salem Ahmed
2024-2025

Senior Data scientist à OSPI et Chercheur associé à METRICS (Univ de Lille)


Q [email protected]
Contenu du cours & modalité de contrôle

Plan : 18h de CM + 12h de TD et 6h de TP

Partie 1 : L’Estimation

1. Généralité
2. Construction d’un estimateur : EMM et EMV
3. Qualités d’un estimateur
4. Exhaustivité
5. Estimation par intervalle de confiance

Partie 2 : Les Tests statistiques

1. Généralité
2. Tests portant sur un paramètre
3. Tests de comparaisons

1/30
Introduction
Introduction

L’équipe électorale d’un candidat A qualifié au second tour d’une élection présidentielle,
souhaite prédire la proportion πA de vote qu’elle aura leur candidat.
Théorie de l’échantillonnage : L’équipe s’est adressée à un institut de sondage qui a procédé à
la sélection d’un échantillon de taille n = 1000 représentatif du corps électoral.

2/30
Introduction

Statistique descriptive :
520 individus ont affirmé leur intention à voter le candidat A tandis que 480 individus ont
affirmé leur intention à voter le deuxième candidat.
520
La proportion de vote du candidat A dans l’échantillonne sélectionné est : b
πn = 1000
= 52%

3/30
Introduction

Statistique inférentielle : permet de répondre aux questions suivantes à partir de l’échantillon :

1. Peut-on s’attendre que le candidat A aura 52% de votes au second tour ?⇒Estimation
ponctuelle de πA .
2. Peut on associer une marge d’erreur à cette estimation ? ⇒ intervalle de confiance.
3. Peut on dire que le candidat a su convaincre les électeurs (πA > 0.5) ? ⇒ Test statistique.

4/30
Partie 1 : L’Estimation

1. Généralité

2. Construction d’un estimateur : EMM et EMV

3. Qualités d’un estimateur

4. Exhaustivité

5. Estimation par intervalle de confiance

5/30
Généralité

Soit X une variable aléatoire dont la loi de probabilité dépend d’un paramètre θ
appartenant à Θ ⊂ R.

On note par p(x ; θ) la densité de X en cas d’une v.a absolument continue ou la


probabilité P (X = x ) en cas d’une v.a discrète.

On note par θ0 la vraie valeur du paramètre θ qu’on souhaite estimer à partir d’un
échantillon issu de X .

Définition : Échantillon aléatoire


Un échantillon aléatoire de taille n de X est l’ensemble X1 , X2 , . . . , Xn tel que les Xi
ont la même loi que X et sont indépendantes.
Une réalisation de l’échantillon est l’ensemble x1 , x2 , . . . , xn de valeurs prises par
l’échantillon.

6/30
Généralité

Définition : Fonction de vraisemblance


Soit X1 , X2 , . . . , Xn un échantillon i.i.d d’une v.a X et θ ∈ Θ un paramètre inconnu. On
appelle la fonction de vraisemblance :
n
Y
Rn × Θ −→ R+ , L(x1 , x2 , . . . , xn ; θ) = p(xi ; θ),
i=1

Définition : Statistique
Soit X1 , . . . , Xn un échantillon de X . On appelle une statistique relative à l’échantillon
toute fonction mesurable S(X1 , . . . , Xn ).

Définition : Estimateur
On appelle un estimateur de θ toute variable aléatoire Tn à valeurs dans Θ et qui
dépend uniquement de l’échantillon X1 , . . . , Xn .
On appelle alors une estimation de θ la valeur de l’estimateur Tn correspondant à une
réalisation de l’échantillon.

La définition d’un estimateur laisse attendre qu’il peut exister une infinité des
estimateurs. 7/30
Généralité

Reprenons l’exemple introductif.


• La variable aléatoire X modélise l’intention de vote au candidat A :
 1 si on vote le candidat A

X =
0 sinon

→ X suit une loi de Bernoulli de paramètre πA .


→ Le paramètre θ fait référence à la proportion πA et dans Θ = [0, 1].

• Soit X1 , X2 , . . . , Xn (n = 1000) l’échantillon sélectionné par l’institut de sondage


→ Les deux variables aléatoire :
n
1 X
X1 et X̄n = Xi
n
i=1
sont deux estimateurs de θ.
→ Les deux estimations de θ données par ces deux estimateurs sont :
520
x1 ∈ {0, 1} et x̄n = = 52%.
1000
Ces deux estimateurs n’ont évidemment pas le même intérêt.
8/30
Construction d’un estimateur ponctuel
Méthode des moments

C’est la méthode la plus naturelle, on vient de l’utiliser sans la formaliser lorsque nous
avons estimé θ par X̄ .
L’idée de base est d’estimer tout moment théorique par sa version empirique grâce à la
loi de grand nombre qui assure la convergence
Soit µk le moment d’ordre k (k ≥ 1) de X (s’il existe) et Mns le moments empirique
d’ordre k :
n
1X k
µk = E(X k ) et Mnk = Xi
n
i=1
Par la loi des grands nombres, nous avons :
Mnk → µk au moins en probabilité lorsque n → ∞.
On définit l’estimateur de méthode des moments (EMM) de θ par la solution de ce
système d’équations des moments :
=


 µ1 Mn1
 µ2 = Mn2

.. .. ..


 . . .
= Mn2

µs
9/30
L’ordre s est choisi de tel sorte qu’on trouve une solution unique de ce système.
Estimation par de méthode des moments

Exemple Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X carré intégrable de moyenne m


et variance σ 2 , inconnues. Trouvez les EMM de m et σ 2 ?

10/30
Estimation par de méthode des moments

Exemple Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X carré intégrable de moyenne m


et variance σ 2 , inconnues. Trouvez les EMM de m et σ 2 ?
Nous avons :
E(X ) = m et E (X 2 ) = σ 2 + m2 .
Considérons le système des équations de moments suivant :

m = Mn1
σ2 + m2 = Mn2

10/30
Estimation par de méthode des moments

Exemple Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X carré intégrable de moyenne m


et variance σ 2 , inconnues. Trouvez les EMM de m et σ 2 ?
Nous avons :
E(X ) = m et E (X 2 ) = σ 2 + m2 .
Considérons le système des équations de moments suivant :

m = Mn1
σ2 + m2 = Mn2
EMM de la moyenne m est la moyenne empirique :
n
1 X
X̄n = Xi .
n
1

10/30
Estimation par de méthode des moments

Exemple Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X carré intégrable de moyenne m


et variance σ 2 , inconnues. Trouvez les EMM de m et σ 2 ?
Nous avons :
E(X ) = m et E (X 2 ) = σ 2 + m2 .
Considérons le système des équations de moments suivant :

m = Mn1
σ2 + m2 = Mn2
EMM de la moyenne m est la moyenne empirique :
n
1 X
X̄n = Xi .
n
1

EMM de la variance σ 2 est la variance empirique :


n
1 X
Sn2 = (Xi − X̄n )2
n
1

10/30
Estimation par de méthode des moments

Exemple Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X carré intégrable de moyenne m


et variance σ 2 , inconnues. Trouvez les EMM de m et σ 2 ?
Nous avons :
E(X ) = m et E (X 2 ) = σ 2 + m2 .
Considérons le système des équations de moments suivant :

m = Mn1
σ2 + m2 = Mn2
EMM de la moyenne m est la moyenne empirique :
n
1 X
X̄n = Xi .
n
1

EMM de la variance σ 2 est la variance empirique :


n
1 X
Sn2 = (Xi − X̄n )2
n
1

Exercice (DM) Calculez E(X̄n ), Var(X̄n ), E(Sn2 ) et Var(Sn2 ) en supposant que E(X 4 ) existe.

10/30
Estimation par de méthode des moments

Exemple Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X carré intégrable de moyenne m


et variance σ 2 , inconnues. Trouvez les EMM de m et σ 2 ?
Nous avons :
E(X ) = m et E (X 2 ) = σ 2 + m2 .
Considérons le système des équations de moments suivant :

m = Mn1
σ2 + m2 = Mn2
EMM de la moyenne m est la moyenne empirique :
n
1 X
X̄n = Xi .
n
1

EMM de la variance σ 2 est la variance empirique :


n
1 X
Sn2 = (Xi − X̄n )2
n
1

Exercice (DM) Calculez E(X̄n ), Var(X̄n ), E(Sn2 ) et Var(Sn2 ) en supposant que E(X 4 ) existe.
Exercice Soit X1 , . . . , Xn un échantillon aléatoire d’une variable X ∼ U [a, b]. Trouvez les EMM
de a et b.
10/30
Méthode du maximum de vraisemblance
Estimateur du maximum de vraisemblance

La méthode du maximum de vraisemblance est l’une de méthodes d’estimation la plus


populaire.

11/30
Estimateur du maximum de vraisemblance

La méthode du maximum de vraisemblance est l’une de méthodes d’estimation la plus


populaire.
Elle se base sur le principe suivant : le paramètre inconnu θ0 est proche d’un paramètre
pour lequel la réalisation de notre échantillon x1 , x2 , . . . , xn est la plus probable ou, en
d’autres termes, la plus vraisemblable.

11/30
Estimateur du maximum de vraisemblance

La méthode du maximum de vraisemblance est l’une de méthodes d’estimation la plus


populaire.
Elle se base sur le principe suivant : le paramètre inconnu θ0 est proche d’un paramètre
pour lequel la réalisation de notre échantillon x1 , x2 , . . . , xn est la plus probable ou, en
d’autres termes, la plus vraisemblable.
Définition
L’estimateur du maximum de vraisemblance (EMV) est tout estimateur Tn vérifiant :

Ln (X1 , X2 , . . . , Xn ; Tn ) = sup Ln (X1 , X2 , . . . , Xn ; θ)


θ∈Θ

11/30
Estimateur du maximum de vraisemblance

La méthode du maximum de vraisemblance est l’une de méthodes d’estimation la plus


populaire.
Elle se base sur le principe suivant : le paramètre inconnu θ0 est proche d’un paramètre
pour lequel la réalisation de notre échantillon x1 , x2 , . . . , xn est la plus probable ou, en
d’autres termes, la plus vraisemblable.
Définition
L’estimateur du maximum de vraisemblance (EMV) est tout estimateur Tn vérifiant :

Ln (X1 , X2 , . . . , Xn ; Tn ) = sup Ln (X1 , X2 , . . . , Xn ; θ)


θ∈Θ

En pratique nous cherchons le point extremum de la fonction lnL(X1 , X2 , . . . , Xn ; Tn )


en résolvant l’équation :

lnL(X1 , . . . , Xn , θ) = 0,
∂θ
dite l’équation de la vraisemblance.

11/30
Estimateur du maximum de vraisemblance

La méthode du maximum de vraisemblance est l’une de méthodes d’estimation la plus


populaire.
Elle se base sur le principe suivant : le paramètre inconnu θ0 est proche d’un paramètre
pour lequel la réalisation de notre échantillon x1 , x2 , . . . , xn est la plus probable ou, en
d’autres termes, la plus vraisemblable.
Définition
L’estimateur du maximum de vraisemblance (EMV) est tout estimateur Tn vérifiant :

Ln (X1 , X2 , . . . , Xn ; Tn ) = sup Ln (X1 , X2 , . . . , Xn ; θ)


θ∈Θ

En pratique nous cherchons le point extremum de la fonction lnL(X1 , X2 , . . . , Xn ; Tn )


en résolvant l’équation :

lnL(X1 , . . . , Xn , θ) = 0,
∂θ
dite l’équation de la vraisemblance.
L’EMV n’a pas toujours une forme explicite, des algorithmes numériques tel que la
méthode Newton-Raphson ou autres pour maximiser la vraisemblance.
11/30
Méthode du maximum de vraisemblance

Exemple : reprenons notre exemple introductif et estimons πA par la méthode du


maximum de vraisemblance.
n
1X
lnL(x1 , . . . , xn ; πA ) = nx̄n ln(πA ) + n(1 − x̄n )ln(1 − πA ), avec x̄n = xi
n
i=1

12/30
Méthode du maximum de vraisemblance

Exemple : reprenons notre exemple introductif et estimons πA par la méthode du


maximum de vraisemblance.
n
1X
lnL(x1 , . . . , xn ; πA ) = nx̄n ln(πA ) + n(1 − x̄n )ln(1 − πA ), avec x̄n = xi
n
i=1

L’équation de la vraisemblance est :


∂ n(x̄n − πA )
lnL(x1 , . . . , xn ; πA ) = .
∂πA πA (1 − πA )


lnL(x1 , . . . , xn ; πA ) = 0 ⇒ πA = x̄n
∂πA

12/30
Méthode du maximum de vraisemblance

Exemple : reprenons notre exemple introductif et estimons πA par la méthode du


maximum de vraisemblance.
n
1X
lnL(x1 , . . . , xn ; πA ) = nx̄n ln(πA ) + n(1 − x̄n )ln(1 − πA ), avec x̄n = xi
n
i=1

L’équation de la vraisemblance est :


∂ n(x̄n − πA )
lnL(x1 , . . . , xn ; πA ) = .
∂πA πA (1 − πA )


lnL(x1 , . . . , xn ; πA ) = 0 ⇒ πA = x̄n
∂πA
∂2
On peut montrer facilement que ∂π 2
lnL(x1 , . . . , xn ; πA ) est négative. Ainsi πA∗ = x̄n est
A
un maximum global de lnL(x1 , . . . , xn ; πA ) pour x̄n ∈]0, 1[.
Pour x̄n ∈ {0, 1}, lnL(x1 , . . . , xn ; πA ) est
lnL(x1 , . . . , xn ; x̄n ) = sup lnL(x1 , . . . , xn ; πA ).
πA ∈]0,1[

Par conséquent Tn = X̄n est l’EMV de πA

12/30
Méthode du maximum de vraisemblance

Exemple : reprenons notre exemple introductif et estimons πA par la méthode du


maximum de vraisemblance.
n
1X
lnL(x1 , . . . , xn ; πA ) = nx̄n ln(πA ) + n(1 − x̄n )ln(1 − πA ), avec x̄n = xi
n
i=1

L’équation de la vraisemblance est :


∂ n(x̄n − πA )
lnL(x1 , . . . , xn ; πA ) = .
∂πA πA (1 − πA )


lnL(x1 , . . . , xn ; πA ) = 0 ⇒ πA = x̄n
∂πA
∂2
On peut montrer facilement que ∂π 2
lnL(x1 , . . . , xn ; πA ) est négative. Ainsi πA∗ = x̄n est
A
un maximum global de lnL(x1 , . . . , xn ; πA ) pour x̄n ∈]0, 1[.
Pour x̄n ∈ {0, 1}, lnL(x1 , . . . , xn ; πA ) est
lnL(x1 , . . . , xn ; x̄n ) = sup lnL(x1 , . . . , xn ; πA ).
πA ∈]0,1[

Par conséquent Tn = X̄n est l’EMV de πA


Exercice Soit X1 , . . . , Xn un échantillon aléatoire de X ∼ P(λ). Trouvez l’EMV de λ.
12/30
Méthode du maximum de vraisemblance

Proposition (Invariance du maximum de vraisemblance)


Soit X1 , . . . , Xn un échantillon aléatoire d’une variable aléatoire X dont la distribution
dépend d’un paramètre θ ∈ Θ. Si Tn est un EMV de θ alors g(Tn ) est un EVM du
paramètre η = g(θ) pour toute fonction g(·) bijective, mesurable et continue sur Θ.

13/30
Méthode du maximum de vraisemblance

Proposition (Invariance du maximum de vraisemblance)


Soit X1 , . . . , Xn un échantillon aléatoire d’une variable aléatoire X dont la distribution
dépend d’un paramètre θ ∈ Θ. Si Tn est un EMV de θ alors g(Tn ) est un EVM du
paramètre η = g(θ) pour toute fonction g(·) bijective, mesurable et continue sur Θ.

Preuve
Ce résultat est direct grâce la bijectivité de la fonction g(·) qui assure que lorsque
L(x1 , . . . , xn ; θ) est maximum au point θ̂ alors L(x1 , . . . , xn ; g(θ)) sera maximum au
point g(θ̂).

13/30
Méthode du maximum de vraisemblance

Proposition (Invariance du maximum de vraisemblance)


Soit X1 , . . . , Xn un échantillon aléatoire d’une variable aléatoire X dont la distribution
dépend d’un paramètre θ ∈ Θ. Si Tn est un EMV de θ alors g(Tn ) est un EVM du
paramètre η = g(θ) pour toute fonction g(·) bijective, mesurable et continue sur Θ.

Preuve
Ce résultat est direct grâce la bijectivité de la fonction g(·) qui assure que lorsque
L(x1 , . . . , xn ; θ) est maximum au point θ̂ alors L(x1 , . . . , xn ; g(θ)) sera maximum au
point g(θ̂).

Cette proposition reste valable dans le cas où la fonction g(·) n’est pas bijective
mais sa démonstration est plus délicate.

13/30
Qualités d’un estimateur
Biais d’estimation

Biais : On souhaite que l’estimation ne soit pas systématiquement décalée par rapport
à la valeur vraie.

14/30
Biais d’estimation

Biais : On souhaite que l’estimation ne soit pas systématiquement décalée par rapport
à la valeur vraie.
Définition : Biais
Le biais d’un estimateur Tn de θ est définie par :

bθ = E(Tn ) − θ.

On dit que Tn est un estimateur sans biais de θ si bθ = 0. Tn est dit


asymptotiquement sans biais si limn→∞ bθ = 0

14/30
Biais d’estimation

Biais : On souhaite que l’estimation ne soit pas systématiquement décalée par rapport
à la valeur vraie.
Définition : Biais
Le biais d’un estimateur Tn de θ est définie par :

bθ = E(Tn ) − θ.

On dit que Tn est un estimateur sans biais de θ si bθ = 0. Tn est dit


asymptotiquement sans biais si limn→∞ bθ = 0

Exemple : reprenons notre exemple et montrons que Tn = X̄n est un estimateur sans
biais de πA .

14/30
Biais d’estimation

Biais : On souhaite que l’estimation ne soit pas systématiquement décalée par rapport
à la valeur vraie.
Définition : Biais
Le biais d’un estimateur Tn de θ est définie par :

bθ = E(Tn ) − θ.

On dit que Tn est un estimateur sans biais de θ si bθ = 0. Tn est dit


asymptotiquement sans biais si limn→∞ bθ = 0

Exemple : reprenons notre exemple et montrons que Tn = X̄n est un estimateur sans
biais de πA .
En effet, !
n n
1X 1X
Tn = E Xi = E (Xi ) = E (X ) = πA ,
n n
i=1 i=1
car les Xi sont identiquement distribuées et E(X ) = πA .
Pn
⇒ Tn = 1
n i=1
Xi est donc un estimateur sans biais de la proportion πA .
14/30
Risque quadratique

La précision ou l’efficacité. Si on répète l’estimation sur un autre échantillon, on


souhaite obtenir une estimation cohérente, donc peu de variation d’un échantillon à
l’autre.

15/30
Risque quadratique

La précision ou l’efficacité. Si on répète l’estimation sur un autre échantillon, on


souhaite obtenir une estimation cohérente, donc peu de variation d’un échantillon à
l’autre.
Définition
Soit Tn un estimateur de θ. Le risque quadratique Tn est définie par :

R(Tn , θ) = E [Tn − θ]2




On parle aussi de l’erreur quadratique moyenne.

15/30
Risque quadratique

La précision ou l’efficacité. Si on répète l’estimation sur un autre échantillon, on


souhaite obtenir une estimation cohérente, donc peu de variation d’un échantillon à
l’autre.
Définition
Soit Tn un estimateur de θ. Le risque quadratique Tn est définie par :

R(Tn , θ) = E [Tn − θ]2




On parle aussi de l’erreur quadratique moyenne.

Remarque
On peut réécrire le risque quadratique R(Tn , θ) sous la forme :

R(Tn , θ) = Var(Tn ) + bθ2

15/30
Risque quadratique

La précision ou l’efficacité. Si on répète l’estimation sur un autre échantillon, on


souhaite obtenir une estimation cohérente, donc peu de variation d’un échantillon à
l’autre.
Définition
Soit Tn un estimateur de θ. Le risque quadratique Tn est définie par :

R(Tn , θ) = E [Tn − θ]2




On parle aussi de l’erreur quadratique moyenne.

Remarque
On peut réécrire le risque quadratique R(Tn , θ) sous la forme :

R(Tn , θ) = Var(Tn ) + bθ2

En effet :
= E [Tn − θ]2 = E(Tn2 ) − 2θE(Tn ) + θ2

R(Tn , θ)
= E(Tn2 ) − [E(Tn )]2 + [E(Tn )]2 − 2θE(Tn ) + θ2
15/30
= Var(Tn ) − [E(Tn ) − θ]2 = Var(Tn ) + bθ2
Convergence

Convergence : Si on peut estimer la valeur du paramètre θ sur toute la


population-mère, la valeur de l’estimation obtenue doit être la valeur vraie du
paramètre.

16/30
Convergence

Convergence : Si on peut estimer la valeur du paramètre θ sur toute la


population-mère, la valeur de l’estimation obtenue doit être la valeur vraie du
paramètre.

Définition : Consistance
Un estimateur Tn d’un paramètre θ est dit consistante si la suite {Tn , n ∈ N}
converge en probabilité vers θ :

∀ϵ > 0 lim P (|Tn − θ| > ϵ) = 0


n→∞

On dit que Tn est fortement convergent lorsque :


X
∀ϵ > 0 P (|Tn − θ| > ϵ) < ∞
n∈N

16/30
Convergence

Convergence : Si on peut estimer la valeur du paramètre θ sur toute la


population-mère, la valeur de l’estimation obtenue doit être la valeur vraie du
paramètre.

Définition : Consistance
Un estimateur Tn d’un paramètre θ est dit consistante si la suite {Tn , n ∈ N}
converge en probabilité vers θ :

∀ϵ > 0 lim P (|Tn − θ| > ϵ) = 0


n→∞

On dit que Tn est fortement convergent lorsque :


X
∀ϵ > 0 P (|Tn − θ| > ϵ) < ∞
n∈N

Proposition
Tout estimateur Tn asymptotiquement sans biais avec une variance tend vers 0 lorsque
n → ∞ est consistante.

16/30
Convergence

Preuve :

Soit ϵ > 0

P (|Tn − θ| > ϵ) = P (|Tn − E(Tn ) + E(Tn ) − θ| > ϵ)


≤ P (|Tn − E(Tn )| + |E(Tn ) − θ| > ϵ)
ϵ ϵ
   
≤ P |Tn − E(Tn )| > + P |E(Tn ) − θ| > → 0,
2 2
car

17/30
Convergence

Preuve :

Soit ϵ > 0

P (|Tn − θ| > ϵ) = P (|Tn − E(Tn ) + E(Tn ) − θ| > ϵ)


≤ P (|Tn − E(Tn )| + |E(Tn ) − θ| > ϵ)
ϵ ϵ
   
≤ P |Tn − E(Tn )| > + P |E(Tn ) − θ| > → 0,
2 2
car

• D’une part Tn est asymptotiquement sans biais implique


ϵ
 
lim P |E(Tn ) − θ| > =0
n→∞ 2

17/30
Convergence

Preuve :

Soit ϵ > 0

P (|Tn − θ| > ϵ) = P (|Tn − E(Tn ) + E(Tn ) − θ| > ϵ)


≤ P (|Tn − E(Tn )| + |E(Tn ) − θ| > ϵ)
ϵ ϵ
   
≤ P |Tn − E(Tn )| > + P |E(Tn ) − θ| > → 0,
2 2
car

• D’une part Tn est asymptotiquement sans biais implique


ϵ
 
lim P |E(Tn ) − θ| > =0
n→∞ 2

• Et d’autre part, l’inégalité de Bienaymé-Tchebychev implique que :


ϵ 4Var(Tn )
 
P |Tn − E(Tn )| > ≤ →0 quand n→∞
2 ϵ2

17/30
Convergence

Exemple : reprenons notre exemple et montrons que Tn = X̄n est un estimateur


consistante pour πA .

18/30
Convergence

Exemple : reprenons notre exemple et montrons que Tn = X̄n est un estimateur


consistante pour πA .

En effet
n
!
1X
Var(Tn ) = Var Xi
n
i=1
n
1 X
= Var(Xi ) car les Xi sont indépendantes
n2
i=1
Var(X )
= car les Xi ont la même loi de X
n
πA (1 − πA )
= →0 quand n → ∞
n

18/30
Convergence

Exemple : reprenons notre exemple et montrons que Tn = X̄n est un estimateur


consistante pour πA .

En effet
n
!
1X
Var(Tn ) = Var Xi
n
i=1
n
1 X
= Var(Xi ) car les Xi sont indépendantes
n2
i=1
Var(X )
= car les Xi ont la même loi de X
n
πA (1 − πA )
= →0 quand n → ∞
n
On conclut donc que Tn est un estimateur consistance de πA .

On peut également conclure que Tn est fortement convergente grâce la loi forte de
grands nombre.

18/30
Convergence

Définition : Convergence en loi


Soit Tn un estimateur d’un paramètre θ, on dit Tn converge asymptotiquement en loi
avec la vitesse n−γ , où γ > 0, si
L
nγ (Tn − θ) −→ Tθ

où Tθ est une variable aléatoire dont la loi est connue.

19/30
Convergence

Définition : Convergence en loi


Soit Tn un estimateur d’un paramètre θ, on dit Tn converge asymptotiquement en loi
avec la vitesse n−γ , où γ > 0, si
L
nγ (Tn − θ) −→ Tθ

où Tθ est une variable aléatoire dont la loi est connue.

Exemple. Reprenons notre exemple introductif. On peut montrer grâce au Théorème


Pn
de la limite centrale que Tn = n1 i=1 Xi est asymptotiquement normale :
√ L
n(Tn − πA ) −→ N (0, πA (1 − πA ))

Rappel
Théorème de la limite centrale : Soient X1 , X2 , . . . , Xn des variables i.i.d carrées
intégrables : E(X12 ) < ∞, alors :
√ L
n(X̄n − E(X1 )) −→ N (0, Var(X1 ))

19/30
Convergence

Les deux théorèmes suivants sont très utiles pour montrer la normalité asymptotiques.

20/30
Convergence

Les deux théorèmes suivants sont très utiles pour montrer la normalité asymptotiques.

Théorème : Méthode de Delta


Soient X1 , X2 , . . . , Xn des variables i.i.d carrées intégrables et soit G une fonction continument
différentiable sur un ensemble ouvert A tel que P (X1 ∈ A) = 1. Alors
√  L ′ 
n G(X̄n ) − G (E(X1 )) −→ N 0, G (E(X1 ))2 Var(X1 )

20/30
Convergence

Les deux théorèmes suivants sont très utiles pour montrer la normalité asymptotiques.

Théorème : Méthode de Delta


Soient X1 , X2 , . . . , Xn des variables i.i.d carrées intégrables et soit G une fonction continument
différentiable sur un ensemble ouvert A tel que P (X1 ∈ A) = 1. Alors
√  L ′ 
n G(X̄n ) − G (E(X1 )) −→ N 0, G (E(X1 ))2 Var(X1 )

Exemple : Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X ∼ E(λ), λ > 0. Montrer que :
√ 1
 
L
n − λ −→ N (0, 1)
X̄n

20/30
Convergence

Les deux théorèmes suivants sont très utiles pour montrer la normalité asymptotiques.

Théorème : Méthode de Delta


Soient X1 , X2 , . . . , Xn des variables i.i.d carrées intégrables et soit G une fonction continument
différentiable sur un ensemble ouvert A tel que P (X1 ∈ A) = 1. Alors
√  L ′ 
n G(X̄n ) − G (E(X1 )) −→ N 0, G (E(X1 ))2 Var(X1 )

Exemple : Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X ∼ E(λ), λ > 0. Montrer que :
√ 1
 
L
n − λ −→ N (0, 1)
X̄n

Théorème : Théorème de Slutsky


Soient Xn et Yn deux suites des variables aléatoires définies sur le même espace de probabilité.
Si pour une variable aléatoire X et une constante a ∈ R on a :
L P
Xn −→ X et Yn −→ a.
Alors
L L
Xn + Yn −→ X + a et Xn Yn −→ aX

20/30
Comparaison de deux estimateurs

Définition : Meilleur estimateur


Soient Tn et Tn∗ deux estimateurs de θ. On dit que Tn∗ est un meilleur estimateur que
Tn si

∀θ ∈ Θ, R(Tn∗ , θ) ≤ R(Tn , θ) et ∃θ ∈ Θ, R(Tn∗ , θ) < R(Tn , θ)

21/30
Comparaison de deux estimateurs

Définition : Meilleur estimateur


Soient Tn et Tn∗ deux estimateurs de θ. On dit que Tn∗ est un meilleur estimateur que
Tn si

∀θ ∈ Θ, R(Tn∗ , θ) ≤ R(Tn , θ) et ∃θ ∈ Θ, R(Tn∗ , θ) < R(Tn , θ)

Définition : Efficacité
Soient Tn et Tn∗ deux estimateurs sans biais de θ. On dit que Tn∗ est plus efficace que
Tn si

∀θ ∈ Θ, Var(Tn∗ ) ≤ Var(Tn ) et ∃θ ∈ Θ, Var(Tn∗ ) < Var(Tn )

21/30
Comparaison de deux estimateurs

Définition : Meilleur estimateur


Soient Tn et Tn∗ deux estimateurs de θ. On dit que Tn∗ est un meilleur estimateur que
Tn si

∀θ ∈ Θ, R(Tn∗ , θ) ≤ R(Tn , θ) et ∃θ ∈ Θ, R(Tn∗ , θ) < R(Tn , θ)

Définition : Efficacité
Soient Tn et Tn∗ deux estimateurs sans biais de θ. On dit que Tn∗ est plus efficace que
Tn si

∀θ ∈ Θ, Var(Tn∗ ) ≤ Var(Tn ) et ∃θ ∈ Θ, Var(Tn∗ ) < Var(Tn )

On cherche l’estimateur le plus efficace s’il existe : sans biais et de variance


minimale.

21/30
Comparaison de deux estimateurs

Définition : Meilleur estimateur


Soient Tn et Tn∗ deux estimateurs de θ. On dit que Tn∗ est un meilleur estimateur que
Tn si

∀θ ∈ Θ, R(Tn∗ , θ) ≤ R(Tn , θ) et ∃θ ∈ Θ, R(Tn∗ , θ) < R(Tn , θ)

Définition : Efficacité
Soient Tn et Tn∗ deux estimateurs sans biais de θ. On dit que Tn∗ est plus efficace que
Tn si

∀θ ∈ Θ, Var(Tn∗ ) ≤ Var(Tn ) et ∃θ ∈ Θ, Var(Tn∗ ) < Var(Tn )

On cherche l’estimateur le plus efficace s’il existe : sans biais et de variance


minimale.
On qualifie cet estimateur par le terme efficace lors que sa variance atteindra une
certaine borne.

21/30
Comparaison de deux estimateurs

Définition : Meilleur estimateur


Soient Tn et Tn∗ deux estimateurs de θ. On dit que Tn∗ est un meilleur estimateur que
Tn si

∀θ ∈ Θ, R(Tn∗ , θ) ≤ R(Tn , θ) et ∃θ ∈ Θ, R(Tn∗ , θ) < R(Tn , θ)

Définition : Efficacité
Soient Tn et Tn∗ deux estimateurs sans biais de θ. On dit que Tn∗ est plus efficace que
Tn si

∀θ ∈ Θ, Var(Tn∗ ) ≤ Var(Tn ) et ∃θ ∈ Θ, Var(Tn∗ ) < Var(Tn )

On cherche l’estimateur le plus efficace s’il existe : sans biais et de variance


minimale.
On qualifie cet estimateur par le terme efficace lors que sa variance atteindra une
certaine borne.


Exhaustivité, Information de Fisher, Borne de Camer-Rao
21/30
Information de Fisher
Information de Ficher

Définition
On appelle quantité d’information de Fisher In (θ) apportée par un échantillon de taille
n sur le paramètre θ la quantité suivante (si elle existe)
h i2 
∂lnL
In (θ) = E (X1 , . . . , Xn , θ)
∂θ

22/30
Information de Ficher

Définition
On appelle quantité d’information de Fisher In (θ) apportée par un échantillon de taille
n sur le paramètre θ la quantité suivante (si elle existe)
h i2 
∂lnL
In (θ) = E (X1 , . . . , Xn , θ)
∂θ

Propriétés
Si le domaine de définition de X ne dépend pas de θ, on a :
 
∂ 2 lnL
1. In (θ) = −E ∂θ 2
(X1 , . . . , Xn , θ)

22/30
Information de Ficher

Définition
On appelle quantité d’information de Fisher In (θ) apportée par un échantillon de taille
n sur le paramètre θ la quantité suivante (si elle existe)
h i2 
∂lnL
In (θ) = E (X1 , . . . , Xn , θ)
∂θ

Propriétés
Si le domaine de définition de X ne dépend pas de θ, on a :
 
∂ 2 lnL
1. In (θ) = −E ∂θ 2
(X1 , . . . , Xn , θ)
2. Additivité (toutes les observations ont la même importance) : In (θ) = nI1 (θ)

22/30
Information de Ficher

Définition
On appelle quantité d’information de Fisher In (θ) apportée par un échantillon de taille
n sur le paramètre θ la quantité suivante (si elle existe)
h i2 
∂lnL
In (θ) = E (X1 , . . . , Xn , θ)
∂θ

Propriétés
Si le domaine de définition de X ne dépend pas de θ, on a :
 
∂ 2 lnL
1. In (θ) = −E ∂θ 2
(X1 , . . . , Xn , θ)
2. Additivité (toutes les observations ont la même importance) : In (θ) = nI1 (θ)
3. Dégradation de l’information : Toute statistique Tn de l’échantillon apporte une
quantité information inférieure ou égale (égalité en cas d’une statistique
exhaustive) à celle apportée par l’échantillon elle-même :

ITn (θ) ≤ In (θ)

22/30
Information de Fisher

Exemple Reprenons notre exemple introductif et calculons l’information de Fisher


In (πA ) apportée par l’échantillon sur πA .

23/30
Borne de Camer Rao

Théorème : Inégalité de Camer-Rao


Si le domaine de définition de X ne dépend pas de θ et si l’information de Fisher est
finie, alors on a pour tout estimateur Tn sans biais de ψ(θ) :

[ψ (θ)]2
Var(Tn ) ≥
In (θ)

[ψ (θ)]2
La quantité In (θ)
est appelée la borne de Camer-Rao.

24/30
Borne de Camer Rao

Théorème : Inégalité de Camer-Rao


Si le domaine de définition de X ne dépend pas de θ et si l’information de Fisher est
finie, alors on a pour tout estimateur Tn sans biais de ψ(θ) :

[ψ (θ)]2
Var(Tn ) ≥
In (θ)

[ψ (θ)]2
La quantité In (θ)
est appelée la borne de Camer-Rao.

Définition : Efficacité
Soit Tn un estimateur sans biais de ψ(θ), on dit que Tn est un estimateur efficace de
ψ(θ) s’il atteint la borne de Camer-Rao :

[ψ (θ)]2
Var(Tn ) = .
In (θ)
On dit que Tn est asymptotiquement efficace, si

[ψ (θ)]2
lim = 1.
n→∞ Var(Tn )In (θ)
24/30
Estimation par intervalle de confiance
Intervalle de confiance

Définition : Intervalle de confiance


Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X dont la distribution dépend d’un
paramètre θ. Soit α un réel dans [0; 1], on appelle l’intervalle de confiance 1 − α
l’intervalle aléatoire [L(X1 , . . . , Xn ); U(X1 , . . . , Xn )] tel que :

P (θ ∈ [L(X1 , . . . , Xn ); U(X1 , . . . , Xn )]) = 1 − α,

L(X1 , . . . , Xn ) et U(X1 , . . . , Xn ) sont respectivement les bornes inférieures et


supérieures de l’intervalle.

25/30
Intervalle de confiance

Définition : Intervalle de confiance


Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X dont la distribution dépend d’un
paramètre θ. Soit α un réel dans [0; 1], on appelle l’intervalle de confiance 1 − α
l’intervalle aléatoire [L(X1 , . . . , Xn ); U(X1 , . . . , Xn )] tel que :

P (θ ∈ [L(X1 , . . . , Xn ); U(X1 , . . . , Xn )]) = 1 − α,

L(X1 , . . . , Xn ) et U(X1 , . . . , Xn ) sont respectivement les bornes inférieures et


supérieures de l’intervalle.

• L(X1 , . . . , Xn ) et U(X1 , . . . , Xn ) sont des statistiques et ne dépendent pas du


paramètre (inconnu) θ.

25/30
Intervalle de confiance

Définition : Intervalle de confiance


Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X dont la distribution dépend d’un
paramètre θ. Soit α un réel dans [0; 1], on appelle l’intervalle de confiance 1 − α
l’intervalle aléatoire [L(X1 , . . . , Xn ); U(X1 , . . . , Xn )] tel que :

P (θ ∈ [L(X1 , . . . , Xn ); U(X1 , . . . , Xn )]) = 1 − α,

L(X1 , . . . , Xn ) et U(X1 , . . . , Xn ) sont respectivement les bornes inférieures et


supérieures de l’intervalle.

• L(X1 , . . . , Xn ) et U(X1 , . . . , Xn ) sont des statistiques et ne dépendent pas du


paramètre (inconnu) θ.

• Le seuil d’erreur α exprime la probabilité que θ n’appartient pas à l’intervalle de


confiance.

25/30
Intervalle de confiance

Définition : Intervalle de confiance


Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X dont la distribution dépend d’un
paramètre θ. Soit α un réel dans [0; 1], on appelle l’intervalle de confiance 1 − α
l’intervalle aléatoire [L(X1 , . . . , Xn ); U(X1 , . . . , Xn )] tel que :

P (θ ∈ [L(X1 , . . . , Xn ); U(X1 , . . . , Xn )]) = 1 − α,

L(X1 , . . . , Xn ) et U(X1 , . . . , Xn ) sont respectivement les bornes inférieures et


supérieures de l’intervalle.

• L(X1 , . . . , Xn ) et U(X1 , . . . , Xn ) sont des statistiques et ne dépendent pas du


paramètre (inconnu) θ.

• Le seuil d’erreur α exprime la probabilité que θ n’appartient pas à l’intervalle de


confiance.

• Nous choisissons des intervalles de confiance symétrique en probabilité, ç-à-d :


α
P (L(X1 , . . . , Xn ) > θ) = P (U(X1 , . . . , Xn ) < θ) =
2
25/30
Intervalle de confiance

Définition : Fonction pivotale


Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X dont la distribution dépend d’un
paramètre θ, on appelle fonction pivotale pour θ toute v.a ψ(X1 , . . . , Xn ; θ), fonction
de cet échantillon et du paramètre θ et dont la loi ne dépend pas de θ.

26/30
Intervalle de confiance

Définition : Fonction pivotale


Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X dont la distribution dépend d’un
paramètre θ, on appelle fonction pivotale pour θ toute v.a ψ(X1 , . . . , Xn ; θ), fonction
de cet échantillon et du paramètre θ et dont la loi ne dépend pas de θ.

Procédure de construction d’un intervalle de confiance

1. Fixer le seuil d’erreur α.

26/30
Intervalle de confiance

Définition : Fonction pivotale


Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X dont la distribution dépend d’un
paramètre θ, on appelle fonction pivotale pour θ toute v.a ψ(X1 , . . . , Xn ; θ), fonction
de cet échantillon et du paramètre θ et dont la loi ne dépend pas de θ.

Procédure de construction d’un intervalle de confiance

1. Fixer le seuil d’erreur α.


2. Trouver un bon estimateur de θ.

26/30
Intervalle de confiance

Définition : Fonction pivotale


Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X dont la distribution dépend d’un
paramètre θ, on appelle fonction pivotale pour θ toute v.a ψ(X1 , . . . , Xn ; θ), fonction
de cet échantillon et du paramètre θ et dont la loi ne dépend pas de θ.

Procédure de construction d’un intervalle de confiance

1. Fixer le seuil d’erreur α.


2. Trouver un bon estimateur de θ.
3. Construire une fonction pivotale à partir de cet estimateur en identifiant sa loi
exacte ou au moins asymptotique.

26/30
Intervalle de confiance

Définition : Fonction pivotale


Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X dont la distribution dépend d’un
paramètre θ, on appelle fonction pivotale pour θ toute v.a ψ(X1 , . . . , Xn ; θ), fonction
de cet échantillon et du paramètre θ et dont la loi ne dépend pas de θ.

Procédure de construction d’un intervalle de confiance

1. Fixer le seuil d’erreur α.


2. Trouver un bon estimateur de θ.
3. Construire une fonction pivotale à partir de cet estimateur en identifiant sa loi
exacte ou au moins asymptotique.
4. Déterminer les bornes L(X1 , . . . , Xn ) et U(X1 , . . . , Xn ) à partir de l’inégalité
présente dans cette probabilité :

P qα/2 ≤ ψ(X1 , . . . , Xn ; θ) ≤ q1−α/2 = 1 − α,




où qα/2 et q1−α/2 sont respectivement les quantiles d’ordre α/2 et 1 − α/2 de la


fonction pivotale.

26/30
Intervalles de confiance pour la moyenne d’une variable normale

Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X ∼ N (m, σ 2 ). On s’intéresse à


définir un intervalle de confiance 1 − α pour m.

27/30
Intervalles de confiance pour la moyenne d’une variable normale

Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X ∼ N (m, σ 2 ). On s’intéresse à


définir un intervalle de confiance 1 − α pour m.
Pn Pn
Rappelons qu’on peut estimer m par X̄n = 1
n i=1
Xi et σ 2 par Sn2 = 1
n i=1
(Xi − X̄n )2 .

27/30
Intervalles de confiance pour la moyenne d’une variable normale

Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X ∼ N (m, σ 2 ). On s’intéresse à


définir un intervalle de confiance 1 − α pour m.
Pn Pn
Rappelons qu’on peut estimer m par X̄n = 1
n i=1
Xi et σ 2 par Sn2 = 1
n i=1
(Xi − X̄n )2 .
Sn2 est un estimateur asymptotiquement sans biais de σ 2 et Sn∗2 = n
S2
n−1 n
est un
estimateur sans biais de σ 2 .

27/30
Intervalles de confiance pour la moyenne d’une variable normale

Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X ∼ N (m, σ 2 ). On s’intéresse à


définir un intervalle de confiance 1 − α pour m.
Pn Pn
Rappelons qu’on peut estimer m par X̄n = 1
n i=1
Xi et σ 2 par Sn2 = 1
n i=1
(Xi − X̄n )2 .
Sn2 est un estimateur asymptotiquement sans biais de σ 2 et Sn∗2 = n
S2
n−1 n
est un
estimateur sans biais de σ 2 .
Définition : Loi de khi-deux
Pk
Soient Y1 , . . . , Yk des v.a i.i.d de N (0, 1) alors i=1
Yi2 suit une loi de khi-deux à k
degrés de liberté Xk2 .

27/30
Intervalles de confiance pour la moyenne d’une variable normale

Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X ∼ N (m, σ 2 ). On s’intéresse à


définir un intervalle de confiance 1 − α pour m.
Pn Pn
Rappelons qu’on peut estimer m par X̄n = 1
n i=1
Xi et σ 2 par Sn2 = 1
n i=1
(Xi − X̄n )2 .
Sn2 est un estimateur asymptotiquement sans biais de σ 2 et Sn∗2 = n
S2
n−1 n
est un
estimateur sans biais de σ 2 .
Définition : Loi de khi-deux
Pk
Soient Y1 , . . . , Yk des v.a i.i.d de N (0, 1) alors i=1
Yi2 suit une loi de khi-deux à k
degrés de liberté Xk2 .

Définition : Loi de Student


Soient Z ∼ N (0, 1) et T ∼ Xk2 deux variables indépendantes, alors la variable aléatoire
√Z suit une loi de Student à k degrés de liberté Tk .
T /k

27/30
Intervalles de confiance pour la moyenne d’une variable normale

Soit X1 , . . . , Xn un échantillon aléatoire d’une v.a X ∼ N (m, σ 2 ). On s’intéresse à


définir un intervalle de confiance 1 − α pour m.
Pn Pn
Rappelons qu’on peut estimer m par X̄n = 1
n i=1
Xi et σ 2 par Sn2 = 1
n i=1
(Xi − X̄n )2 .
Sn2 est un estimateur asymptotiquement sans biais de σ 2 et Sn∗2 = n
S2
n−1 n
est un
estimateur sans biais de σ 2 .
Définition : Loi de khi-deux
Pk
Soient Y1 , . . . , Yk des v.a i.i.d de N (0, 1) alors i=1
Yi2 suit une loi de khi-deux à k
degrés de liberté Xk2 .

Définition : Loi de Student


Soient Z ∼ N (0, 1) et T ∼ Xk2 deux variables indépendantes, alors la variable aléatoire
√Z suit une loi de Student à k degrés de liberté Tk .
T /k

Théorème de Fisher
Pn nSn2
• 1
σ2 i=1
(Xi − X̄n )2 = 2
∼ Xn−1 .
σ2
√ X̄n −m √
• X̄n et Sn sont indépendantes et n S ∗ = n − 1 X̄nS−m
2
n
∼ Tn−1 . 27/30
n
Intervalles de confiance pour les paramètres d’une variable normale

Intervalle de confiance pour m

Cas de σ 2 inconnu
La fonction pivotale
√ X̄n − m
T = n ∼ Tn−1
Sn∗

28/30
Intervalles de confiance pour les paramètres d’une variable normale

Intervalle de confiance pour m

Cas de σ 2 inconnu
La fonction pivotale
√ X̄n − m
T = n ∼ Tn−1
Sn∗
On note par tα/2 et t1−α/2 les quantiles d’ordre α/2 et 1 − α/2 de T , on peut écrire

P tα/2 ≤ T ≤ t1−α/2 = P −t1−α/2 ≤ T ≤ t1−α/2 = 1 − α.


 

28/30
Intervalles de confiance pour les paramètres d’une variable normale

Intervalle de confiance pour m

Cas de σ 2 inconnu
La fonction pivotale
√ X̄n − m
T = n ∼ Tn−1
Sn∗
On note par tα/2 et t1−α/2 les quantiles d’ordre α/2 et 1 − α/2 de T , on peut écrire

P tα/2 ≤ T ≤ t1−α/2 = P −t1−α/2 ≤ T ≤ t1−α/2 = 1 − α.


 

Or, on a
−t1−α/2 ≤ T ≤ t1−α/2

S∗ S∗
⇐⇒ X̄n − t1−α/2 √n ≤ m ≤ X̄n + t1−α/2 √n
n n

28/30
Intervalles de confiance pour les paramètres d’une variable normale

Intervalle de confiance pour m

Cas de σ 2 inconnu
La fonction pivotale
√ X̄n − m
T = n ∼ Tn−1
Sn∗
On note par tα/2 et t1−α/2 les quantiles d’ordre α/2 et 1 − α/2 de T , on peut écrire

P tα/2 ≤ T ≤ t1−α/2 = P −t1−α/2 ≤ T ≤ t1−α/2 = 1 − α.


 

Or, on a
−t1−α/2 ≤ T ≤ t1−α/2

S∗ S∗
⇐⇒ X̄n − t1−α/2 √n ≤ m ≤ X̄n + t1−α/2 √n
n n
Ainsi, l’intervalle  
S∗ S∗
X̄n − t1−α/2 √n ; X̄n + t1−α/2 √n
n n
est un intervalle de confiance 1 − α pour la moyenne m.
28/30
Intervalle de confiance pour d’une proportion

Reprenons notre exemple introductif, on avait estimé le score πA du candidat A à 52%.

29/30
Intervalle de confiance pour d’une proportion

Reprenons notre exemple introductif, on avait estimé le score πA du candidat A à 52%.

L’équipe électorale souhaite qu’on évalue l’incertitude portant sur cette estimation ⇒
Intervalle de confiance 95% (α = 5%) pour πA .

29/30
Intervalle de confiance pour d’une proportion

Reprenons notre exemple introductif, on avait estimé le score πA du candidat A à 52%.

L’équipe électorale souhaite qu’on évalue l’incertitude portant sur cette estimation ⇒
Intervalle de confiance 95% (α = 5%) pour πA .

On a montré que X̄n est l’EMV sans biais, consistante et asymptotiquement normale
de πA :
√ X̄n − πA L
np −→ N (0, 1)
πA (1 − πA )

29/30
Intervalle de confiance pour d’une proportion

Reprenons notre exemple introductif, on avait estimé le score πA du candidat A à 52%.

L’équipe électorale souhaite qu’on évalue l’incertitude portant sur cette estimation ⇒
Intervalle de confiance 95% (α = 5%) pour πA .

On a montré que X̄n est l’EMV sans biais, consistante et asymptotiquement normale
de πA :
√ X̄n − πA L
np −→ N (0, 1)
πA (1 − πA )

En plus, le Théorème de Slutsky implique que

√ X̄n − πA L
Z = np −→ N (0, 1)
X̄n (1 − X̄n )
Ainsi, on peut considérer Z comme étant une fonction pivotale pour πA .

29/30
Intervalle de confiance pour d’une proportion

Soit z1−α/2 le quantile d’ordre 1 − α/2 de N (0, 1), on peut écrire

P −z1−α/2 ≤ Z ≤ z1−α/2 ≈ 1 − α.


30/30
Intervalle de confiance pour d’une proportion

Soit z1−α/2 le quantile d’ordre 1 − α/2 de N (0, 1), on peut écrire

P −z1−α/2 ≤ Z ≤ z1−α/2 ≈ 1 − α.


Ainsi, l’intervalle
" p p #
X̄n (1 − X̄n ) X̄n (1 − X̄n )
X̄n − z1−α/2 √ ; X̄n + z1−α/2 √
n n

est un intervalle de confiance asymptotique 1 − α pour πA .

30/30
Intervalle de confiance pour d’une proportion

Soit z1−α/2 le quantile d’ordre 1 − α/2 de N (0, 1), on peut écrire

P −z1−α/2 ≤ Z ≤ z1−α/2 ≈ 1 − α.


Ainsi, l’intervalle
" p p #
X̄n (1 − X̄n ) X̄n (1 − X̄n )
X̄n − z1−α/2 √ ; X̄n + z1−α/2 √
n n

est un intervalle de confiance asymptotique 1 − α pour πA .

Application :
α = 0.05, z0.975 = 1.96 et x̄n = 0.52, ainsi l’intervalle de confiance asymptotique
95% de πA est :
√ √
0.52 × 0.48 0.52 × 0.48
 
0.52 − 1.96 √ ; 0.52 + 1.96 √ = [0.49 ; 0.55]
1000 1000

30/30

Vous aimerez peut-être aussi