0% encontró este documento útil (0 votos)
341 vistas3 páginas

Estimadores y Varianza en Estadística

1. El documento presenta 24 problemas estadísticos relacionados con estimación paramétrica. Los problemas incluyen identificar estimadores insesgados y de varianza mínima, demostrar propiedades de estimadores compuestos, encontrar estimadores por máxima verosimilitud y método de momentos, y determinar estadísticas suficientes.

Cargado por

danielzaba
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
341 vistas3 páginas

Estimadores y Varianza en Estadística

1. El documento presenta 24 problemas estadísticos relacionados con estimación paramétrica. Los problemas incluyen identificar estimadores insesgados y de varianza mínima, demostrar propiedades de estimadores compuestos, encontrar estimadores por máxima verosimilitud y método de momentos, y determinar estadísticas suficientes.

Cargado por

danielzaba
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

PRACTICA N° 2

1. Sea X1 , X2 , ..., X5 una m.a. extraida de una población N (µ, σ 2 ), y sean las estadísticas
X1 + X2 + 2X3 + X4 + X5
T1 = X̄ T2 =
6
estimadores del parámetro µ. Identificar las estadística que tiene varianza mínima.

2. Demostrar que, si T1 es un estimador consistente de θ1 y T2 de θ2 , entonces aT1 + bT2 es también


estimador consistente de aθ1 + bθ2 .

3. Suponga que θb1 = t1 (X1 , X2 , ..., Xn ) y θb2 = t2 (X1 , X2 , ..., Xn ) son estimadores independientes de
un parámetro θ, con varianzas conocidas σ12 y σ22 , respectivamente.

a) Demostrar que θb = (1 − a)θb1 + aθb2 es también un estimador insesgado de θ para cualquier


valor de a.
b) Encontrar el valor de a que minimiza V [θ].
b

4. Sea X1 , X2 , X3 una muestra aleatoria estraida de una poblaci[on cuya media es µ y varianza 1. De
los siguientes estimadores de µ
1 1 1 1 1 1 1
µ
b1 = X1 + X2 + X3 µ
b2 = (X1 + X2 + X3 ) µ
b3 = X1 + X2 + X3
6 3 2 3 4 6 3
a) ¿Cuáles son estimadores insesgados de µ?
b) ¿Cuál es el estimador de varianza mínima?

5. Sea X1 , X2 , ..., Xn una m.a. estraida de una población cuya distribución es completamente de-
sconocida, pero se conoce que todos los momentos E[X k ], k = 1, 2, ..... son finitos. Encontrar un
estimador insesgado de (E[X])2 .

6. Supongamos que X es una v.a. con distribución Poisson con parámetro λ(λ > 0). Encontrar una
estadística T = t(X) es cual es un estimador insesgado de eλ .

7. Sea X1 , X2 , ..., Xn una muestra extraida de una población con función de densidad f (x, θ) = θxθ−1 ,
0 < x < 1, θ > 0. Hallar una estadística suficiente para θ.

8. Sea X1 , X2 , ..., Xn una muestra extraida de una población con función de densidad
 δ
δ δ−1 x
f (x, θ) = x exp − x > 0, θ > 0, δ > 0
θ θ

Hallar una estadística suficiente para θ.

9. Considere n sistemas con tiempos de vida X1 , X2 , ..., Xn . Suponiendo que estos tiempos son vari-
ables aleatorias independientes e idénticamente distribuidas con distribución exponencial E(λ).
a) Hallar el estimador de λ por el método de los momentos.
b) Hallar el estimador de λ por el método de los momentos diferente a lo que se obtuvo en a).

10. Suponga que los tiempos de falla X1 , X2 , ..., Xn tienen distribución Gamma Γ(α, β), donde α y β
son ambos desconocidos.
β α xα−1 −βx
f (x : α, θ) = e x>0
Γ(α)

Probar que el estimador de α y β obtenido por el método de momentos son


   
X̄ X̄
T1 = αb= y T2 = βb =
σ
b b2
σ

11. Sea X1 , X2 , ..., Xn una m.a. extraida de una población binomial negativa con función de densidad
 
x+r−1
f (x : θ) = (1 − θ)x θr 0≤θ≤1 x = 0, 1, 2, ...
x
r
Probar que es un E.M.V. de θ.
r + X̄
12. Sea X1 , X2 , ..., Xn una m.a. extraida de una población uniforme U (θ − a, θ + b), donde a, b > 0 son
conocidos y θ ∈ R. Hallar un estimador de θ por el método de los momentos.

13. Sea X1 , X2 , ..., Xn una m.a. extraida de una población uniforme U (−θ, θ), θ > 0. Hallar el estimador
de θ por el método de los momentos.

14. Sea X1 , X2 , ..., Xn una m.a. extraida de una población N (θ, 1). Probar que T = X̄ 2 − 1/n es un
estimador insesgado de θ.

15. Sea X1 , X2 , ..., Xn una m.a. extraida de una población con función de densidad
1
f (x : θ) = (1 + θx) − 1 ≤ x ≤ 1, −1 ≤ θ ≤ 1
2
Hallar un estimador insesgado de θ por el método de los momentos.
n
16. Sea X1 , X2 , ..., Xn una m.a. extraida de una población N (0, σ 2 ). Pruebe que T1 = Xi2 es una
P
i=1
estadística suficiente para σ 2 .

17. Sea X1 , X2 , ..., Xn variables aleatorias independientes distribuidas normalmente con E[Xi ] = θ y
V [Xi ] = σi2 , i = 1, 2, 3, ..., n.

a) Suponiendo que σi2 son conocidos y diferentes para i = 1, 2, ..., n, obtener un E.M.V. insesgado
de θ.
b) Suponiendo que σi2 = σ 2 , i = 1, 2, ..., n, σ 2 conocido, hallar el E.M.V. insesgado de θ.

18. Sea X1 , X2 , ..., Xn una m.a. extraida de una población con función de densidad
 θ2 −1
θ2 x
f (x : θ1 , θ2 ) = 0 ≤ x ≤ θ1 , θ1 > 0 θ2 > 0
θ1 θ1

a) Hallar una estadística suficiente para θ = (θ1 , θ2 ).


1
b) Si θ1 es conocido, determine un estimador máximo verosímil insesgado de .
θ2
19. Sea X1 , X2 , ..., Xn una m.a. extraida de una población con función de densidad
f (x : θ) = θxθ−1 0<x<1 θ>0
θ
Hallar el E.M.V. de µ = .
1+θ
20. Sea X1 , X2 , ..., Xn una m.a. extraida de una población con función de densidad
f (x : θ) = θ(1 + x)−(1+θ) x>0 θ>0
a) Hallar el estimador de θ por el método de los momentos, suponiendo que θ > 1.
1
b) Hallar el E.M.V. de .
θ
21. Sea X1 , X2 , ..., Xn una m.a. extraida de una población con función de densidad
  x
1 −
f (x : θ) = e θ+2 x > 0 θ > −2
θ+2
a) Hallar el E.M.V. de θ.
X1 + X2 b 7X3 − 4X4 − 6
b) Si θb1 = , θ2 = y θb es el E.M.V. ¿Cuáles de los estimadores son
2 3
insesgados para θ?
c) Entre los estimadores insesgados de θ, ¿cuál tiene la varianza mínima?
22. Supongase que se va a probar una bombilla normal, una bombilla de larga duración y una de
duración extra larga. El tiempo de vida X1 de la bombilla normal tiene una distribución exponencial
con media θ, el tiempo de vida X2 de la bombilla de larga duración tiene distribución exponencial
con media 2θ, y el tiempo de vida X3 de la bombilla con duración extra larga tiene una distribución
exponencial con media 3θ.
a) Determínese el estimador máximo verosímil de θ basado en las observaciones X1 , X2 y X3 .
b) Si se extrae una m.a. de las duraciones de n bombillas que se distribuyen como exponencial
con media iθ, ∀ i = 1, 2, ..., n es decir si Xi es la duración de la i-ésima bombilla, entonces:
E[Xi ] = iθ, ∀ i = 1, 2, ..., n, determinar el E.M.V. de θ.
c) Demuestre que el estimador de θ obtenido en b) es consistente.
23. Se examina cada pieza de 150 recién fabricadas y se registra el número de arañazos por pieza (se
supone que las piezas no deben tener arañazos) y resultan los siguientes datos:
Número de arañazos por pieza 0 1 2 3 4 5 6 7
Frecuencia observada 18 37 42 30 13 7 2 1

Sea X el número de arañazos en una pieza seleccionada al azar y suponga que X tiene una
distribución de Poisson con parámetro λ.
a) Encuentre un estimador insesgado de λ y calcule la estimación para los datos anteriores.
b) ¿Cuál es la desviación estándar (error estándar) de su estimador?
24. Sean X1 , X2 , ..., Xn1 y Y1 , Y2 , ..., Yn2 dos muestras aleatorias independientes extraídas de una población
N (µ, σ 2 ) con medias muestrales X̄ y Ȳ , respectivamente.
Un investigador pretende estimar la media poblacional µ y propone como estimadores alternativas
1 n1 X̄ + n2 Ȳ
µ
b1 = (X̄ + Ȳ ) y µ
b2 =
2 n1 + n2
Compare las propiedades de insesgamiento y eficiencia de estos estimadores.

55

También podría gustarte