Exercice 5 : Construction de test
Rappels théoriques
1. Loi géométrique
Une variable aléatoire X suit une loi géométrique de paramètre p (avec 0 < p ≤ 1)
si elle représente le nombre d’essais nécessaires pour obtenir le premier succès dans une
suite d’épreuves indépendantes identiques (Bernoulli).
La densité de probabilité est donnée par :
P (X = k) = (1 − p)k−1 p, k ∈ N∗ , p ∈]0, 1].
L’espérance et la variance sont :
1 1−p
E[X] = , Var(X) = .
p p2
2. RVM et famille exponentielle
Une loi appartient à la famille exponentielle si sa densité s’écrit sous la forme :
f (x; θ) = h(x) exp [T (x)η(θ) − A(θ)] ,
où θ est le paramètre de la loi.
Une statistique T (X) est dite statistique exhaustive pour un paramètre θ si elle
contient toute l’information sur θ dans les observations.
3. Estimateur du maximum de vraisemblance (EMV)
Pour un échantillon X1 , X2 , . . . , XK , la vraisemblance est donnée par :
K
Y
L(p) = P (Xi = xi | p).
i=1
L’EMV du paramètre p est obtenu en maximisant la log-vraisemblance :
K
X
log L(p) = log P (Xi = xi | p).
i=1
1
Résolution de l’exercice
1. Densité de probabilité, espérance et variance de X
– La densité de probabilité de X est :
P (X = k) = (1 − p)k−1 p, k ∈ N∗ .
– L’espérance de X est :
∞
X 1
E[X] = k(1 − p)k−1 p = .
k=1
p
– La variance de X est :
1−p
Var(X) = E[X 2 ] − E[X]2 = .
p2
2. RVM et famille exponentielle
La loi géométrique appartient à la famille exponentielle. En effet, on peut écrire :
P (X = k | p) = exp (log p + (k − 1) log(1 − p)) .
Ainsi, la loi géométrique est dans la famille exponentielle avec :
η(p) = log(1 − p), T (x) = x − 1, A(p) = − log p.
La statistique exhaustive pour p est donc la somme des Xi :
K
X
T (X) = Xi .
i=1
3. Estimation de p par maximum de vraisemblance
Pour un échantillon X1 , X2 , . . . , XK iid, la vraisemblance est :
K
Y PK
L(p) = P (Xi = xi | p) = pK (1 − p) i=1 (xi −1) .
i=1
La log-vraisemblance est :
K
!
X
log L(p) = K log p + (xi − 1) log(1 − p).
i=1
On maximise cette log-vraisemblance par rapport à p. La dérivée par rapport à p
donne : PK
∂ log L(p) K (xi − 1)
= − i=1 .
∂p p 1−p
En égalant à 0, on trouve l’EMV :
K
p̂ = PK .
i=1 Xi
2
4. Intervalle de confiance pour p
L’EMV p̂ est asymptotiquement normal :
p2 (1 − p)
p̂ ∼ N p, .
K
Un intervalle de confiance asymptotique de niveau 1 − α est :
" r r #
p̂2 (1 − p̂) p̂2 (1 − p̂)
p̂ − z α2 , p̂ + z α2 ,
K K
où z α2 est le quantile de la loi normale.
5. Test d’hypothèses
On veut tester :
H0 : p ≤ p0 contre H1 : p > p0 .
La statistique de test naturelle est basée sur l’estimateur p̂. Sous H0 , la loi asympto-
tique de p̂ est :
p20 (1 − p0 )
p̂ ∼ N p0 , .
K
La région critique est donnée par :
r
p20 (1 − p0 )
p̂ > p0 + zα ,
K
où zα est le quantile d’ordre 1 − α de la loi normale.
Deuxième hypothèse
Pour H0 : p = p0 contre H1 : p > p0 , on utilise la même statistique et une région
critique similaire, mais centrée en p0 .