0% ont trouvé ce document utile (0 vote)
48 vues4 pages

Stat 20172018

Le document est un examen de statistique comprenant des exercices sur l'estimation, les tests statistiques et les tests d'adéquation. Il aborde des concepts tels que la loi géométrique, les estimateurs du maximum de vraisemblance, les tests de Neyman-Pearson et le test du χ2. Les étudiants doivent démontrer des propriétés des estimateurs et effectuer des calculs liés aux probabilités et aux statistiques.

Transféré par

7phqsmxwdd
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
48 vues4 pages

Stat 20172018

Le document est un examen de statistique comprenant des exercices sur l'estimation, les tests statistiques et les tests d'adéquation. Il aborde des concepts tels que la loi géométrique, les estimateurs du maximum de vraisemblance, les tests de Neyman-Pearson et le test du χ2. Les étudiants doivent démontrer des propriétés des estimateurs et effectuer des calculs liés aux probabilités et aux statistiques.

Transféré par

7phqsmxwdd
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

E XAMEN S TATISTIQUE - 1SN

Lundi 15 Janvier 2018


Partiel sans document (Une feuille A4 recto-verso autorisée)

Exercice 1 : Estimation (9 points)

On considère n variables aléatoires X1 , ..., Xn indépendantes suivant la même loi discrète à valeurs dans
l’ensemble des entiers non nuls N∗ = N\ {0} définie par

P [Xi = xi ; θ] = θ (1 − θ)xi −1 , xi ∈ N∗ = {1, 2, ...

avec θ ∈]0, 1[. On admettra que la moyenne et la variance d’une telle loi appelée “loi géométrique de
paramètre θ” sont définies par E [Xi ] = 1θ et var(Xi ) = 1−θ
θ2
.

1. (2pts) Montrer que la vraisemblance de (x1 , ..., xn ) admet un unique maximum global pour une
valeur de θ que l’on déterminera. En déduire l’estimateur du maximum de vraisemblance du
paramètre θ noté θbMV .

2. (2pts) Rappeler les propriétés asymptotiques de l’estimateur θbMV . Devant la difficulté d’étudier ces
propriétés pour n fini, on propose d’estimer le paramètre a = 1θ . Quel est l’estimateur du maximum
de vraisemblance du paramètre a noté âMV ? Cet estimateur est-il sans biais et convergent ?

3. (2pts) Déterminer la borne de Cramer-Rao pour un estimateur non biaisé du paramètre a. L’estimateur
aMV est-il l’estimateur efficace du paramètre a ?
b

4. (3pts) On désire maintenant construire un estimateur Bayésien du paramètre θ. Puisque ce paramètre


vérifie la contrainte θ ∈]0, 1[, il est naturel de définir une loi a priori (appelée loi beta de paramètres
α et β) de densité
θα−1 (1 − θ)β−1
p(θ) = I]0,1[ (θ)
B (α, β)
où I]0,1[ (θ) est la fonction indicatrice sur l’intervalle ]0, 1[ (I]0,1[ (θ) = 1 si θ ∈ ]0, 1[ et I]0,1[ (θ) =
0 si θ ∈
/ ]0, 1[) et où B(α, β) est la fonction beta dont l’expression n’est pas importante dans cet
exercice.

• Montrer que la loi a posteriori de θ| x1 , ..., xn est aussi une loi beta dont on précisera les
paramètres.
• Déterminer l’estimateur du maximum a posteriori du paramètre θ noté θbMAP et étudier son
comportement lorsque n → ∞.

1
Exercice 2 : Test Statistique (7 points)

On considère n variables aléatoires X1 , ..., Xn indépendantes suivant la même loi géométrique à


valeurs dans l’ensemble des entiers non nuls N∗ = N\ {0} définie par
P [Xi = xi ; θ] = θ (1 − θ)xi −1 , xi ∈ N∗ = N\ {0} .
avec θ ∈]0, 1[. On rappelle que la moyenne et la variance d’une loi géométrique de paramètre θ sont
définies par E [Xi ] = 1θ et var(Xi ) = 1−θ
θ2
. On considère le test d’hypothèses simples
H0 : θ = θ 0 , H1 : θ = θ1 .

1. (2pts) Déterminer la statistique du test du test de Neyman Pearson notée Tn et indiquer la région
critique de ce test pour θ1 > θ0 et θ1 < θ0 . Dans la suite de cet exercice, on supposera θ1 > θ0 .
La décision prise à l’aide du test de Neyman Pearson est-elle en accord avec la moyenne d’une loi
géométrique définie par E[Xi ] = 1θ ?
2. (1pt) Déterminer la loi approchée de la statistique Tn résultant de l’application du théorème de la
limite centrale.
3. (1pt) On note Z x  2
1 u
F (x) = √ exp − du
−∞ 2π 2
la fonction de répartition d’une loi normale N (0, 1) et F −1 son inverse. Déterminer la valeur du
seuil du test de Neyman Pearson notée Kα en fonction de n, θ0 , du risque de première espèce α et
de F −1 .
4. (1pt) Déterminer la puissance du test en fonction du seuil Kα , de n, θ1 et de F .
5. (2pts) Déterminer les courbes COR du test étudié dans cet exercice et tracer la forme de ces courbes
pour différentes valeurs de n.

Exercice 3 : Test d’adéquation (4 points)

On observe 20 réalisations d’une variable aléatoire discrète regroupées dans le tableau ci-dessous
et on se pose la question de savoir si ces observations proviennent d’une loi géométrique de paramètre
θ = 0.4 (voir définition à l’exercice précédent). Pour cela, on effectue un test du χ2 avec les 4 classes
C1 = {1}, C2 = {2}, C3 = {3} et C4 = {4, ...}

x1 = 1 x2 = 1 x3 = 3 x4 = 2 x5 = 2 x6 = 6 x7 = 3 x8 = 5 x9 = 4 x10 = 3
x11 = 2 x12 = 6 x13 = 1 x14 = 1 x15 = 2 x16 = 2 x17 = 3 x18 = 1 x19 = 2 x20 = 5

1. (1pt) Déterminer les probabilités des différentes classes notées pi , i = 1, ..., 4 en fonction de θ. On
admettra que les valeurs numériques de ces probabilités pour θ = 0.4 sont p1 = 0.4, p2 = 0.24,
p3 = 0.144 et p4 = 0.216.
2. (1pt) En déduire la valeur de la statistique du test du χ2 notée φn (on écrira l’expression de φn
sous la forme d’une somme pondérée de carrés qu’on ne cherchera pas à calculer).
3. (1pt) Quelle est la loi de φn lorsque les données xi sont issues d’une loi géométrique de paramètre
θ = 0.4 ?
4. (1pt) Pour effectuer le test du χ2 , on doit comparer la valeur de φn à un seuil. Déterminer ce seuil
en fonction de la fonction de répartition inverse d’une loi du χ2 et du risque de première espèce du
test noté α.

2
LOIS DE PROBABILITÉ CONTINUES
m : moyenne σ 2 : variance F. C. : fonction caractéristique

LOI Densité de probabilité m σ2 F. C.


1
f (x) = b−a a+b (b−a)2 eitb − eita
Uniforme 2 12
x ∈ ]a, b[ it (b − a)
θν −θx ν−1
f (x) = Γ(ν) e x
Gamma ν ν 1
θ > 0, ν > 0 ν
Γ (θ, ν) θ θ2 1 − i θt
x≥0
θν − xθ 1
f (x) = Γ(ν) e xν+1
Inverse gamma
θ θ2
θ > 0, ν > 0 ν−1 si ν > 1 (ν−1)2 (ν−2)
si ν > 2 (*)
IG(θ, ν)
x≥0
Première loi 1
f (x) = 21 e−|x| 0 2
de Laplace 1 + t2

Normale (x−m)2 σ 2 t2
f (x) = √1 e− 2σ 2 m σ2 eimt− 2
2
 σ 2π
N m, σ
x ν
Khi2 f (x) = ke− 2 x 2 −1
1 1
χ2ν k= ν ν 2ν
2 2 Γ ν2
ν

(1 − 2it) 2
1 ν

Γ 2, 2 ν ∈ N∗ , x ≥ 0
1
f (x) =  2 
Cauchy
πλ 1 + x−α λ (-) (-) eiαt−λ|t|
cλ,α
λ > 0, α ∈ R
f (x) = kxa−1 (1 − x)b−1
Γ(a+b) a ab
Beta k= Γ(a)Γ(b) a+b (a+b)2 (a+b+1)
(*)

a > 0, b > 0, x ∈ ]0, 1[

3
LOIS DE PROBABILITÉ DISCRÈTES
m : moyenne σ 2 : variance F. C. : fonction caractéristique
pk = P [X = k] p1,...,m = P [X1 = k1 , ..., Xm = km ]

LOI Probabilités m σ2 F. C.
1
eit 1 − eitn

pk = n n+1 n2 −1
Uniforme 2 12
k ∈ {1, ..., n} n (1 − eit )

p1 = P [X = 1] = p
Bernoulli p0 = P [X = 0] = q p pq peit + q
p ∈ [0, 1] q =1−p
pk = Cnk pk q n−k
Binomiale n
p ∈ [0, 1] q =1−p np npq peit + q
B (n, p)
k ∈ {0, 1, ..., n}
n−1
pk = Cn+k−1 pn q k  n
Binomiale q q p
p ∈ [0, 1] q =1−p n n 2
négative p p 1 − qeit
k∈N
n! k1 km
p1,...,m = k1 !...km ! p1 ...pm Variance :

pj ∈ [0, 1] qj = 1 − p j npj qj P
m it
n
Multinomiale npj j=1 pj e
kj ∈ {0, 1, . . . , n} Covariance :
Pm Pm
j=1 kj = n j=1 pj = 1 −npj pk
λk
Poisson pk = e−λ
exp λ eit − 1
 
k! λ λ
P (λ) λ>0 k∈N
pk = pq k−1
1 q peit
Géométrique p ∈ [0, 1] q =1−p
p p2 1 − qeit
k ∈ N∗

Vous aimerez peut-être aussi