0% ont trouvé ce document utile (0 vote)
36 vues3 pages

Estimation et tests sur loi géométrique

Le document traite de la loi géométrique, de ses propriétés statistiques, et de l'estimation du paramètre p à l'aide de l'estimateur du maximum de vraisemblance (EMV). Il présente également la construction d'intervalles de confiance pour p et des tests d'hypothèses associés. Enfin, il démontre que la loi géométrique appartient à la famille exponentielle et fournit des formules pour la densité de probabilité, l'espérance, et la variance.

Transféré par

camerooncm059
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
36 vues3 pages

Estimation et tests sur loi géométrique

Le document traite de la loi géométrique, de ses propriétés statistiques, et de l'estimation du paramètre p à l'aide de l'estimateur du maximum de vraisemblance (EMV). Il présente également la construction d'intervalles de confiance pour p et des tests d'hypothèses associés. Enfin, il démontre que la loi géométrique appartient à la famille exponentielle et fournit des formules pour la densité de probabilité, l'espérance, et la variance.

Transféré par

camerooncm059
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Exercice 5 : Construction de test

Rappels théoriques
1. Loi géométrique
Une variable aléatoire X suit une loi géométrique de paramètre p (avec 0 < p ≤ 1)
si elle représente le nombre d’essais nécessaires pour obtenir le premier succès dans une
suite d’épreuves indépendantes identiques (Bernoulli).
La densité de probabilité est donnée par :

P (X = k) = (1 − p)k−1 p, k ∈ N∗ , p ∈]0, 1].

L’espérance et la variance sont :


1 1−p
E[X] = , Var(X) = .
p p2

2. RVM et famille exponentielle


Une loi appartient à la famille exponentielle si sa densité s’écrit sous la forme :

f (x; θ) = h(x) exp [T (x)η(θ) − A(θ)] ,

où θ est le paramètre de la loi.


Une statistique T (X) est dite statistique exhaustive pour un paramètre θ si elle
contient toute l’information sur θ dans les observations.

3. Estimateur du maximum de vraisemblance (EMV)


Pour un échantillon X1 , X2 , . . . , XK , la vraisemblance est donnée par :
K
Y
L(p) = P (Xi = xi | p).
i=1

L’EMV du paramètre p est obtenu en maximisant la log-vraisemblance :


K
X
log L(p) = log P (Xi = xi | p).
i=1

1
Résolution de l’exercice
1. Densité de probabilité, espérance et variance de X
– La densité de probabilité de X est :

P (X = k) = (1 − p)k−1 p, k ∈ N∗ .

– L’espérance de X est :

X 1
E[X] = k(1 − p)k−1 p = .
k=1
p

– La variance de X est :
1−p
Var(X) = E[X 2 ] − E[X]2 = .
p2

2. RVM et famille exponentielle


La loi géométrique appartient à la famille exponentielle. En effet, on peut écrire :

P (X = k | p) = exp (log p + (k − 1) log(1 − p)) .

Ainsi, la loi géométrique est dans la famille exponentielle avec :

η(p) = log(1 − p), T (x) = x − 1, A(p) = − log p.

La statistique exhaustive pour p est donc la somme des Xi :


K
X
T (X) = Xi .
i=1

3. Estimation de p par maximum de vraisemblance


Pour un échantillon X1 , X2 , . . . , XK iid, la vraisemblance est :
K
Y PK
L(p) = P (Xi = xi | p) = pK (1 − p) i=1 (xi −1) .
i=1

La log-vraisemblance est :
K
!
X
log L(p) = K log p + (xi − 1) log(1 − p).
i=1

On maximise cette log-vraisemblance par rapport à p. La dérivée par rapport à p


donne : PK
∂ log L(p) K (xi − 1)
= − i=1 .
∂p p 1−p
En égalant à 0, on trouve l’EMV :
K
p̂ = PK .
i=1 Xi

2
4. Intervalle de confiance pour p
L’EMV p̂ est asymptotiquement normal :

p2 (1 − p)
 
p̂ ∼ N p, .
K

Un intervalle de confiance asymptotique de niveau 1 − α est :


" r r #
p̂2 (1 − p̂) p̂2 (1 − p̂)
p̂ − z α2 , p̂ + z α2 ,
K K

où z α2 est le quantile de la loi normale.

5. Test d’hypothèses
On veut tester :
H0 : p ≤ p0 contre H1 : p > p0 .
La statistique de test naturelle est basée sur l’estimateur p̂. Sous H0 , la loi asympto-
tique de p̂ est :
p20 (1 − p0 )
 
p̂ ∼ N p0 , .
K
La région critique est donnée par :
r
p20 (1 − p0 )
p̂ > p0 + zα ,
K
où zα est le quantile d’ordre 1 − α de la loi normale.

Deuxième hypothèse
Pour H0 : p = p0 contre H1 : p > p0 , on utilise la même statistique et une région
critique similaire, mais centrée en p0 .

Vous aimerez peut-être aussi