Estimation paramétrique
Hamza Dhaker
February 27, 2024
Introduction
Estimation ponctuelle
Exemples et problématiques
Exemples et problématiques
Estimateur de l’espérance, d’une
Qualité d’un estimateur
Méthodes d’estimation
La méthode des moments
La méthode du maximum de vraisemblance
Introduction
On sait calculer des indicateurs numériques à partir d’un
échantillon de données ...
▶ Mais comment généraliser à la population entière ?
▶ Quelles informations sur la population obtient-on en étudiant
l’échantillon ?
▶ Quelle confiance peut-on accorder à ces informations ?
Introduction
L’idée : à partir d’échantillons représentatifs, on va introduire des
résultats sur la population.
On étudie une variable X , dont on observe des réalisations. On
suppose que X suit une loi connue, i.e. on choisit parmi les
modèles existants la loi la plus appropriée au phénomène observé.
Seule la valeur numérique du paramètre intervenant dans cette loi
de probabilité est inconnue.
X ∼ P(θ), θ inconnu
Exemple : soit X la taille des habitants de Moncton. On suppose
que X suit une loi normale, de moyenne inconnue θ et de variance
connue. On va donc chercher à estimer θ à partir d’un échantillon
de données.
Introduction
Deux types d’estimation On considère généralement deux types
d’estimation :
▶ L’estimation ponctuelle :on cherche à calculer une unique
valeur θ̂ estimant au mieux θ.
▶ L’estimation par intervalle de confiance :on estime la
probabilité que la valeur vraie d’un paramètre appartienne à
un intervalle donné, on a ainsi un ensemble de valeurs
vraisemblables donc une estimation ensembliste ou région de
confiance. Typiquement, on cherche a et b tel que, par
exemple.
P(a ≤ θ ≤ b) = 0.95
Introduction
On note les données x1 , x2 , ...xn .
▶ On regardera xi comme le i-ème tirage d’une variable aléatoire
X :
X ∼ P(θ)
▶ Ou de façon équivalente comme une réalisation d’une variable
Xi de même loi que X . De plus, les Xi sont supposées
indépendantes :
X ∼ P(θ)
Estimation ponctuelle
Soient x1 , x2 , ..., xn les n valeurs prises par la v.a. X dans un
échantillon de taille n prélevé dans la population-mère.
▶ Une statistique t est une fonction des observations
x1 , x2 , ..., xn :
t: Rn → Rm
(x1 , ..., xn ) 7→ t((x1 , ..., xn ))
▶ Un estimateur de θ est une fonction construite à l’aide des
{Xi } :
Tn = t(X1 , ..., Xn )
▶ Une estimation est une réalisation tn = t(x1 , ..., xn ) de
l’estimateur Tn . On note la valeur numérique de cette
estimation par
θ̂ = t(x1 , ..., xn )
Estimation ponctuelle
Un constructeur de cars souhaite appréhender la consommation
d’essence de son dernier modèle. Pour cela, il lance un protocole
d’essais sur 128 cars et recueille leur consommation d’essence en
litres après avoir parcouru 100 km (appelée nombre de litres aux
100) :
{x1 , ..., x128 } = {26.23, 26.40, 26.85, . . . , 35.50, 35.50, 36.07}
Le constructeur s’adresse à un data analyst pour répondre à
plusieurs de ses interrogations :
▶ Il aimerait connaı̂tre la consommation (théorique) d’essence µ
de son modèle de car.
▶ Le problème est maintenant, au vue de l’échantillon {xi }, de
proposer une valeur pour la moyenne de cette loi normale. Il
faut procéder à une estimation du paramètre vrai qui se
traduit par la valeur θ̂. Il y a une infinité de manière possible
parmi lesquelles :
▶ θ̂=la moyenne
▶ θ̂=la médiane...
Qualité d’un estimateur
⇒ Quel est le meilleur estimateur de la moyenne ? Existe-t-il ?
Qu’est ce que cela veut dire meilleur?
Il n’existe pas de ”meilleur estimateur”! mais il existe des critères
de comparaison :
▶ On souhaite qu’un estimateur soit exhaustif, c’est-à-dire qu’il
puisse capter toute la connaissance sur le paramètre contenue
dans les observations : l’échantillon.
▶ On souhaite qu’un est estimateur soit consistant
(convergeant): l’estimateur calculé sur un échantillon sera
d’autant plus fin (proche de la vérité) que la taille de
l’échantillon sera importante. Si on pouvait faire croı̂tre
indéfiniment la taille de l’échantillon, on se rapprocherait
asymptotiquement de la vraie valeur du paramètre.
▶ On souhaiterait dans l’absolu qu’un estimateur soit sans
biais(du moins pour des grands échantillons) et de variance
faible.
Estimation ponctuelle
Estimation ponctuelle
▶ Estimateur sans biais
Un estimateur Tn est dit sans biais lorsque son espérance
mathématique est égale à la valeur vraie du paramètre.
Biais = E(Tn ) − θ = 0
▶ Précision d’un estimateur
On mesure généralement la précision d’un estimateur par
l’erreur quadratique moyenne :
EQM(Tn ) = E((Tn − θ)2 ) − θ = Var (Tn ) − (Biais)2
▶ Estimateur convergent
Un estimateur Tn de θ est convergent en moyenne quadratique
si:
E((Tn − θ)2 ) − θ → 0 quand n → ∞
Méthodes d’estimation
This is some text in the first frame. This is some text in the first
frame. This is some text in the first frame.
Méthodes d’estimation
This is some text in the first frame. This is some text in the first
frame. This is some text in the first frame.
Méthodes d’estimation
This is some text in the first frame. This is some text in the first
frame. This is some text in the first frame.