0% encontró este documento útil (0 votos)
67 vistas11 páginas

Introducción al Teorema Karlin-Rubin

Este documento presenta el teorema de Karlin-Rubin, una generalización del lema de Neyman-Pearson que permite obtener las pruebas estadísticas más potentes para probar hipótesis compuestas unilaterales. Se define el teorema y conceptos estadísticos relevantes, y se demuestran el lema de Neyman-Pearson y el teorema de Karlin-Rubin. Finalmente, se presentan dos ejemplos no convencionales de aplicación del teorema de Karlin-Rubin.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
67 vistas11 páginas

Introducción al Teorema Karlin-Rubin

Este documento presenta el teorema de Karlin-Rubin, una generalización del lema de Neyman-Pearson que permite obtener las pruebas estadísticas más potentes para probar hipótesis compuestas unilaterales. Se define el teorema y conceptos estadísticos relevantes, y se demuestran el lema de Neyman-Pearson y el teorema de Karlin-Rubin. Finalmente, se presentan dos ejemplos no convencionales de aplicación del teorema de Karlin-Rubin.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Journal of Basic Sciences, año 2 (4), enero-abril 2016

Teorema de Karlin - Rubin y ejemplos no


clásicos
E. Nájera Rangel1,*, B. G. Peralta Reyes 2, A. Pérez Pérez1.

1División Académica de Ciencias Básicas, Universidad Juárez Autónoma de Tabasco, A.P. 24,
C.P. 86690, Cunduacán, Tabasco, México
*[Link]@[Link]
2Instituto Tecnológico Superior de Comalcalco, carret. vecinal Comalcalco-Paraiso Km 2, Ra.
Occidente 3ra. Secc, C.P. 86651, Comalcalco, Tabasco, México

El teorema de Karlin - Rubin es una generalización del lema de Neyman - Pearson, de


tal forma que bajo ciertas condiciones nos permite obtener los mejores procedimientos
para probar hipótesis estadı́sticas compuestas unilaterales. El propósito de este tra-
bajo es proporcionar una introducción básica de este teorema e ilustrar su aplicación
a través de ejemplos no incluı́dos en los libros de texto más conocidos.

The Karlin - Rubin theorem is a generalization of the Neyman-Pearson lemma, so


that under certain conditions allows us to obtain the best procedures to test sta-
tistical composite one-sided hypotheses. The purpose of this paper is to provide a
basic introduction to this theorem and illustrate its application through examples not
included in the most popular textbooks.

Palabras claves: Estadı́stico suficiente, prueba de hipótesis, teorema de Karlin-Rubin.


Keywords: Sufficient statistic, hypothesis testing, Karlin-Rubin theorem.

1. Introducción

Uno de los objetivos principales de la estadı́stica es el de hacer inferencias respecto a


parámetros poblacionales desconocidos a través de la información contenida en una
muestra. Estas inferencias pueden interpretarse como estimaciones de los parámetros
respectivos o como pruebas de hipótesis relacionadas con sus valores. Especı́ficamente,
en este trabajo suponemos un experimento aleatorio para el cual se conoce la forma
de su función de densidad o de probabilidad (en el caso discreto) f en algún espacio
Euclidiano Rk , k ≥ 1, pero que ésta depende de algún parámetro desconocido θ,
de modo que f (·) ≡ f (·; θ), del cual sólo se sabe que pertenece a cierto conjunto
Θ ⊂ Rk , k ≥ 1, llamado el espacio de parámetros. Nuestro interés se centra en probar
la hipótesis H0 : θ ∈ Θ0 versus H1 : θ ∈ Θc0 , donde Θ0 ⊂ Θ y Θc0 = Θ − Θ0 . A H0 le
llamaremos la hipótesis nula y a H1 la hipótesis alternativa.
Supongamos dada una muestra aleatoria X = (X1 , . . . , Xn ) de la función de den-
sidad o de probabilidad f (x; θ).

Recibido: 15 abril 2015. Aceptado: 08 septiembre 2015. Publicado: 01 enero 2016.


Journal of Basic Sciences, año 2 (4), enero-abril 2016

Definición 1. Una prueba de hipótesis es una regla que especifica:


(a) Los valores de la muestra X para los que se acepta H0 como cierta.
(b) Los valores de la muestra X para los que se rechaza H0 y se acepta H1 como
cierta.

El subconjunto R del rango de X para el cual H0 se rechaza es llamado la región de


rechazo o región crı́tica.

Definición 2. Consideremos el problema de prueba de hipótesis H0 : θ ∈ Θ0 vs


H1 : θ ∈ Θc0 . Si θ ∈ Θ0 pero la prueba de hipótesis decide incorrectamente rechazar
H0 , se dice que se ha cometido un error de tipo I. Si, por otro lado, θ ∈ Θc0 , pero la
prueba de hipótesis decide aceptar H0 , se dice que se ha cometido error de tipo II.

Denotemos por Pθ a la distribución del vector aleatorio X cuando cada Xi tiene


función de densidad o de probabilidad f (·, θ), i = 1, . . . , n. Entonces en un problema
de prueba de hipótesis H0 : θ ∈ Θ0 vs H1 : θ ∈ Θc0 , dada una prueba de hipótesis con
región de rechazo R, si θ ∈ Θ0 , la probabilidad del error de tipo I es Pθ (X ∈ R). Si
θ ∈ Θc0 , la probabilidad del error de tipo II es Pθ (X ∈ Rc ) = 1 − Pθ (X ∈ R).

Definición 3. Dada una prueba de hipótesis con región de rechazo R, la función


β : Θ → [0, 1] dada por β(θ) = Pθ (X ∈ R) se llama la función potencia de la prueba.

Obviamente lo ideal serı́a que β tomara el valor 0 para todo θ ∈ Θ0 y el valor


1 para todo θ ∈ Θc0 , sin embargo, excepto en situaciones triviales, este ideal no se
alcanza. De esta manera, una buena prueba será aquella que toma valores cercanos
a 0 para θ ∈ Θ0 y valores cercanos a 1 para θ ∈ Θc0 . Esto conduce a la siguiente
definición.

Definición 4. Consideremos el problema de prueba de hipótesis H0 : θ ∈ Θ0 vs


H1 : θ ∈ Θc0 .
(a) Para 0 ≤ α ≤ 1, una prueba con función potencia β(θ) es una prueba de tamaño
α si supθ∈Θ0 β(θ) = α.
(b) Para 0 ≤ α ≤ 1, una prueba con función potencia β(θ) es una prueba de nivel
α si supθ∈Θ0 β(θ) ≤ α.

(c) Sea C una clase de pruebas para probar H0 : θ ∈ Θ0 vs H1 : θ ∈ Θc0 . Se dice que
una prueba en la clase C, con función potencia β(θ), es una prueba uniformemente
0 0
más potente en la clase C si β(θ) ≥ β (θ) para toda θ ∈ Θc0 y para toda β (θ) que es
una función potencia de una prueba en la clase C.

En este trabajo, la clase C será la clase de todas las pruebas de nivel α. Es decir,
el propósito será encontrar la prueba uniformemente más potente de nivel α.
Uno de los resultados más famosos que describe con claridad cuales pruebas son
uniformemente más potentes de nivel α cuando tanto H0 como H1 son hipótesis
Revista de Ciencias Básicas UJAT, 1(1)Junio 1111 p 1–1
Journal of Basic Sciences, año 2 (4), enero-abril 2016

simples, es decir, cuando H0 y H1 especifican cada una sólo una distribución para la
muestra X, es el lema de Neyman-Pearson. Este lema puede generalizarse de forma
que permita obtener pruebas uniformemente más potentes de nivel α para cuando
H0 y H1 son hipótesis estadı́sticas compuestas unilaterales, es decir, pruebas de la
forma H0 : θ ≤ θ0 vs H1 : θ > θ0 o H0 : θ ≥ θ0 vs H1 : θ < θ0 . Tal generalización es
conocida como el teorema de Karlin-Rubin. Por propósitos didácticos hemos decidido
incluir en la sección 2 las demostraciones de ambos resultados. Ambas demostraciones
están basadas en las demostraciones dadas en [2] (véase también [8] y [9]), pero se hace
un desarrollo más detallado. Finalmente, en la sección 3 presentamos dos ejemplos, no
incluı́dos en las referencias más conocidas de la Estadı́stica, sobre el uso del teorema
de Karlin-Rubin para determinar pruebas uniformemente más potentes de nivel α.
En ambos ejemplos se deben implementar procedimientos numéricos para llevar a
cabo las pruebas de hipótesis referidas.

2. Lema de Neyman - Pearson y teorema de Karlin-Rubin

Los resultados de teorı́a de la medida que se usan en las demostraciones dadas en


esta sección pueden ser consultados, por ejemplo, en [1]. Recordemos los siguientes
conceptos.

Definición 5. Sea X = (X1 , . . . , Xn ) una muestra aleatoria de la función de densidad


o de probabilidad f (x; θ). Un estadı́stico T = T (X) es suficiente si la distribución
condicional de X dado T = t no depende de θ.

Ası́, de acuerdo con esta definición, un estadı́stico suficiente resume la información


que acerca del parámetro θ está contenido en la muestra X (ninguna información
adicional en la muestra X, aparte del valor del estadı́stico T , contiene más información
sobre θ).

Definición 6. Una familia de funciones de densidad o de probabilidad


{g(t; θ) : θ ∈ Θ ⊆ R} de una variable aleatoria T , tiene razón de verosimilitudes mo-
nótona si, siempre que θ1 < θ2 ,
g(t; θ2 )
g(t; θ1 )

es monótona como función de t en {t : g(t; θ1 ) > 0 o g(t; θ2 ) > 0}, donde definimos
c
0 = ∞ si c > 0.

Proposición 1. Sea T una variable aleatoria cuya familia de densidades o de prob-


abilidades es {g(t; θ) : θ ∈ Θ ⊆ R}, tal que para θ1 < θ2 ,
g(t; θ2 )
g(t; θ1 )

es creciente como función de t. Entonces

Pθ2 (T ≤ t) ≤ Pθ1 (T ≤ t).


Journal of Basic Sciences, año 2 (4), enero-abril 2016

Prueba. Sean t1 < t < t2 . De aquı́

g(t1 ; θ2 ) g(t2 ; θ2 )
≤ =⇒ g(t1 ; θ2 )g(t2 ; θ1 ) ≤ g(t1 ; θ1 )g(t2 ; θ2 ).
g(t1 ; θ1 ) g(t2 ; θ1 )

Integrando primero sobre t1 de −∞ a t y después sobre t2 de t a ∞ se tiene

Pθ2 (T ≤ t)(1 − Pθ1 (T ≤ t)) ≤ Pθ1 (T ≤ t)(1 − Pθ2 (T ≤ t)),

de donde,

Pθ2 (T ≤ t) ≤ Pθ1 (T ≤ t).

Teorema 1. (Lema de Neyman - Pearson) Sea la prueba de hipótesis H0 : θ = θ0 vs


H1 : θ = θ1 , donde f (x; θi ) es la función de densidad o probabilidad correspondiente
a θi , i = 1, 2. Consideremos una región de rechazo R tal que

x ∈ R si f (x; θ1 ) > kf (x; θ0 ) y x ∈ Rc si f (x; θ1 ) < kf (x; θ0 ) (1)

para algún k ≥ 0, y
α = Pθ0 (X ∈ R). (2)

Entonces
(a) (Suficiencia) Toda prueba con región de rechazo R que cumple (1) y (2) es una
prueba de nivel α uniformemente más potente.
(b) (Necesidad) Si existe una prueba que satisface (1) y (2) con k > 0, entonces
toda prueba de nivel α uniformemente más potente es una prueba de tamaño α, y
toda prueba de nivel α uniformemente más potente satisface (1), excepto quizá en un
conjunto A que satisface Pθ0 (X ∈ A) = Pθ1 (X ∈ A) = 0.

Prueba. Probaremos el teorema para el caso en el que f (x; θ0 ) y f (x; θ1 ) son funciones
de densidad de variables aleatorias (absolutamente) continuas. La demostración para
el caso de variables aleatorias discretas es similar; sólo hay que reemplazar las inte-
grales por sumas. Para cualquier prueba con región de rechazo R∗ , definimos una
función de prueba φ∗ como sigue:

1 si x ∈ R∗

φ∗ (x) = .
/ R∗
0 si x ∈

0
Sea φ la función de prueba de una prueba que satisface (1) y (2). Sea φ la función
0
de prueba de cualquier otra prueba de nivel α. Sean β(θ) y β (θ) las funciones
0
potencia de las pruebas φ y φ respectivamente. Veamos que
0
(φ(x) − φ (x))(f (x; θ1 ) − kf (x; θ0 )) ≥ 0, ∀x ∈ Rn .
Journal of Basic Sciences, año 2 (4), enero-abril 2016

0 0
Si x ∈ R, se tiene que φ(x) = 1 y 0 ≤ φ (x) ≤ 1, por lo que φ(x) − φ (x) ≥ 0.
Por (1), f (x; θ1 ) − kf (x; θ0 ) ≥ 0, de donde

(φ(x) − φ0 (x))(f (x; θ1 ) − kf (x; θ0 )) ≥ 0.

0
Si x ∈ Rc , se tiene que φ(x) = 0 por lo que φ(x) − φ (x) ≤ 0.
Por (1) f (x; θ1 ) − kf (x; θ0 ) < 0, luego

(φ(x) − φ0 (x))(f (x; θ1 ) − kf (x; θ0 )) ≥ 0.

0 0
Si R es la región de rechazo de φ ,
Z h i
0
0≤ φ(x) − φ (x) [f (x; θ1 ) − kf (x; θ0 )] dx (3)
Z h i Z h i
0 0
= φ(x) − φ (x) f (x; θ1 )dx − φ(x) − φ (x) kf (x; θ0 )dx
Z Z Z
0
= φ(x)f (x; θ1 )dx − φ (x)f (x; θ1 )dx − k φ(x)f (x; θ0 )dx
Z
0
+k φ (x)f (x; θ0 )dx
Z Z Z
0
= φ(x)f (x; θ1 )dx + φ(x)f (x; θ1 )dx − φ (x)f (x; θ1 )dx
c 0
R R R
Z
0
− φ (x)f (x; θ1 )dx
(R0 )c
Z Z Z
0
−k φ(x)f (x; θ0 )dx − k φ(x)f (x; θ0 )dx + k φ (x)f (x; θ0 )dx
c 0
ZR R R
0
+k φ (x)f (x; θ0 )dx
(R0 )c
Z Z Z Z
= f (x; θ1 )dx − f (x; θ1 )dx − k f (x; θ0 )dx + k f (x; θ0 )dx
R R0 R R0
0 0
= β(θ1 ) − β (θ1 ) − k(β(θ0 ) − β (θ0 )).

0
La afirmación (a) se demuestra notando que, como φ es una prueba de nivel α y φ
es una prueba de tamaño α (supθ∈Θ0 Pθ (x ∈ R) = Pθ0 (x ∈ R) = α, ya que Θ0 tiene
0 0
sólo un punto), entonces β(θ0 ) − β (θ0 ) = α − β (θ0 ) ≥ 0. Por lo tanto, de (3) y como
k ≥ 0, se tiene
0 0 0
0 ≤ β(θ1 ) − β (θ1 ) − k(β(θ0 ) − β (θ0 )) ≤ β(θ1 ) − β (θ1 ),

0 0 0
de donde β(θ1 ) ≥ β (θ1 ), es decir, φ tiene mayor potencia que φ . Ya que φ fue una
prueba arbitraria de nivel α y θ1 es el único punto en Θc0 , se concluye que φ es una
prueba de nivel α uniformemente más potente.
0
Para probar la afirmación (b), sea ahora φ la función de prueba de cualquier
prueba de nivel α uniformemente más potente. Por (a), φ, la prueba que satisface
Journal of Basic Sciences, año 2 (4), enero-abril 2016

(1) y (2), también es una prueba de nivel α uniformemente más potente, de donde
0
β(θ1 ) = β (θ1 ). De (3), y puesto que k > 0, se tiene
0 0
α − β (θ0 ) = β(θ0 ) − β (θ0 ) ≤ 0,

de donde 0
α ≤ β (θ0 ). (4)

0 0
De (4) y el hecho de que β (θ0 ) ≤ α, se tiene que β (θ0 ) = α.
Ası́, φ0 es una prueba de tamaño α; esto también implica que (3) es una igualdad,
es decir, se tiene,
Z h i
0
φ(x) − φ (x) [f (x; θ1 ) − kf (x; θ0 )] dx = 0.

Como el integrando es no - negativo, se tiene entonces que


h 0
i
φ(x) − φ (x) [f (x; θ1 ) − kf (x; θ0 )] = 0,

excepto en un conjunto A con medida de Lebesgue 0, es decir, excepto en un conjunto


A tal que Z
dx = 0.
A

Como f (x; θ1 ) − kf (x; θ0 ) 6= 0 ∀x ∈ Rn , resulta que


φ(x) = φ0 (x) ∀x ∈ Rn \ A.

De aquı́ se sigue que las regiones de rechazo de φ y φ0 difieren en un conjunto


de medida 0. Ası́, φ0 satisface (1), excepto en A. Por la continuidad absoluta de
f (x; θi )dx, i = 1, 2, con respecto a la medida de Lebesgue, se tiene que
Z
f (x; θi )dx = 0,
A

o sea,
Pθ0 (X ∈ A) = Pθ1 (X ∈ A) = 0.

Corolario 1. Consideremos el problema de prueba de hipótesis H0 : θ = θ0 vs H1 :


θ = θ1 . Supongamos que T (X) es un estadı́stico suficiente del parámetro θ, y que
g(t; θi ), i = 0, 1, es la función de densidad o de probabilidad de T . Entonces cualquier
prueba basada en T con región de rechazo S es una prueba uniformemente más
potente de nivel α si satisface
t ∈ S si g(t; θ1 ) > kg(t; θ0 ) y t ∈ S c si g(t; θ1 ) < kg(t; θ0 ) (5)

para algún k ≥ 0, donde


α = Pθ0 (T ∈ S). (6)
Journal of Basic Sciences, año 2 (4), enero-abril 2016

Prueba. En términos de la muestra original X, la prueba basada en T tiene región de


rechazo R = {x : T (x) ∈ S}. Por el teorema de factorización (véase, por ejemplo [2],
p. 276) para estadı́sticos suficientes, la función de densidad o de probabilidad de X
se puede escribir como f (x; θi ) = g (T (x); θi ) h(x), i = 0, 1, para alguna función h(x)
no negativa. Multiplicando las desigualdades en (5) por esta función no negativa,
vemos que R satisface

x ∈ R si f (x; θ1 ) = g (T (x); θ1 ) h(x) > kg (T (x); θ0 ) h(x) = kf (x; θ0 )

x ∈ Rc si f (x; θ1 ) = g (T (x); θ1 ) h(x) < kg (T (x); θ0 ) h(x) = kf (x; θ0 ) .

Además, por (6),


Pθ0 (X ∈ R) = Pθ0 (T (X) ∈ S) = α.

Ası́, por la parte de suficiencia del teorema de Neyman - Pearson, la prueba basada
en T es una prueba uniformemente más potente de nivel α.

Teorema 2. (Teorema de Karlin - Rubin) Consideremos el problema de prueba de


hipótesis H0 : θ ≤ θ0 vs H1 : θ > θ0 . Supongamos que T es un estadı́stico suficiente de
θ, y que la familia de funciones de densidad o de probabilidad de T , {g(t; θ) : θ ∈ Θ},
tiene razón de verosimilitudes creciente. Entonces para cualquier t0 , la prueba que
rechaza H0 si y sólo si T > t0 es una prueba uniformemente más potente de nivel α,
donde α = Pθ0 (T > t0 ).

Prueba. Sea β(θ) = Pθ (T > t0 ) la función potencia de la prueba. Sea θ0 > θ0 y


consideremos las pruebas H00 : θ = θ0 vs H10 : θ = θ0 . Ya que la familia de funciones
de densidad o de probabilidad de T tiene razón de verosimilitudes creciente, de la
proposición 1 tenemos que si

θ0 < θ0 , entonces Pθ0 (T ≤ t0 ) ≤ Pθ0 (T ≤ t0 ),

equivalentemente,
1 − Pθ0 (T ≤ t0 ) ≤ 1 − Pθ0 (T ≤ t0 ),

de donde
Pθ0 (T > t0 ) ≤ Pθ0 (T > t0 ),

o sea
β(θ0 ) ≤ β(θ0 ) si θ0 < θ0 .

Ası́, β(θ) es creciente. Luego,


(i) supθ≤θ0 β(θ) = β(θ0 ) = α, por lo que la prueba es de nivel α.
g(t;θ0 )
(ii) Si definimos k 0 = inf , donde
t∈T g(t;θo )

T = {t : t > t0 y g(t; θ0 ) > 0 o g(t; θ0 ) > 0} ,


Revista de Ciencias Básicas UJAT, 1(1)Junio 1111 p 1–1
Journal of Basic Sciences, año 2 (4), enero-abril 2016

8 Edilberto Nájera Rangel, Aroldo Pérez Pérez y Braly Guadalupe Peralta Reyes

resulta que
g(t; θ0 )
t > t0 ⇐⇒ > k0 .
g(t; θ0 )

Junto con el corolario 1, (i) y (ii) implican que β(θ0 ) ≥ β ∗ (θ0 ), donde β ∗ (θ) es la
función potencia de cualquier otra prueba de nivel α de H00 , es decir, cualquier prueba
que satisface β ∗ (θ0 ) ≤ α. Sin embargo, toda prueba de nivel α de H0 satisface
β ∗ (θ0 ) ≤ sup β ∗ (θ0 ) ≤ α. Ası́, β(θ0 ) ≥ β ∗ (θ0 ) para toda prueba de nivel α de H0 . Ya
θ∈Θ0
que θ0 fue arbitraria, la prueba es una prueba uniformemente más potente de nivel
α.

Se puede demostrar, bajo las mismas condiciones del teorema 2, que la prueba
que rechaza H0 : θ ≥ θ0 a favor de H1 : θ < θ0 si y sólo si T < t0 es una prueba
uniformemente más potente de nivel α = Pθ0 (T < t0 ).

3. Ejemplos

En los dos ejemplos siguientes se aplica el teorema de Karlin - Rubin a dos poblaciones
con distribuciones gamma y exponencial truncada, respectivamente. La distribución
gamma es muy importante porque, entre otras aplicaciones, se usa en medicina (véase
[4]) y en climatologı́a (véase [7]). La distribución exponencial truncada es también
muy importante debido a sus aplicaciones en análisis de confiabilidad (véase [5]) y en
actuarı́a (véase [6]), entre otras.
Recordemos que un estadı́stico suficiente T (X) se dice ser un estadı́stico suficiente
minimal si, para cualquier otro estadı́stico suficiente T 0 (X), T (x) es una función de
T 0 (x). Lo cual significa que si T 0 (x) = T 0 (y), entonces T (x) = T (y).

Ejemplo 1. Sea X1 , ..., Xn una muestra aleatoria de una población con distribución
gamma(α, 1), α > 0, es decir, con función de densidad
1 α−1 −x
f (x; α) = x e , x > 0,
Γ(α)
R∞
donde Γ(α) := 0 tα−1 e−t dt es la función gamma. La función de densidad conjunta
de X1 , ..., Xn es
1
fn (x1 , ..., xn ; α) = (Πn xi )α−1 exp(−Σni=1 xi ),
(Γ(α))n i=1
de donde se sigue que el estadı́stico

T = log(Πni=1 Xi ) = Σni=1 log(Xi )

es un estadı́stico suficiente minimal (véase por ejemplo, el teorema 6.2.13, p. 281 de


[2]) para el parámetro α. Antes de encontrar la densidad de T , primero observemos
que si Z tiene distribución exp(1) = gamma(1, 1), entonces la densidad de Y = log(Z)
es y
h1(y) = eye−e .
Journal of Basic Sciences, año 2 (4), enero-abril 2016

Ahora probemos por inducción sobre el tamaño de muestra n (véase [10]) que la
densidad de T es
1 (α−1)t
g(t; α) = ne hn (t), (7)
(Γ (α))
donde hn (t) es la densidad de la suma de los logaritmos de una muestra aleatoria de
tamaño n de la distribución exp(1).

(a) Si n = 1, entonces T = log(X1 ), de donde se tiene que la densidad de T es



dx1
= 1 et(α−1) e−e et = 1 et(α−1) h1 (t),
t
g(t; α) = f (et ; α)
dt Γ(α) Γ(α)

donde h1 es la densidad de log(Z), con Z una variable aleatoria con distribución


exp(1).

(b) Supongamos que la afirmación se cumple para tamaños de muestra n − 1, n ≥ 2, y


probemos que entonces también se cumple para tamaños de muestra n. Sean T1 =
log(X1 ), Tn−1 = Σni=2 log(Xi ), y g1 (t1 ; α) y gn−1 (tn−1 ; α) las densidades de T1 y Tn−1
respectivamente. Entonces la función de densidad de T = T1 + Tn−1 es
Z ∞
g(t; α) = g1 (w; α)gn−1 (t − w; α)dw
−∞
Z ∞
1 (α−1)w 1
= e h1 (w) n−1
e(α−1)(t−w) hn−1 (t − w)dw
−∞ Γ(α) (Γ(α))
Z ∞
1 (α−1)t
= e h1 (w)hn−1 (t − w)dw.
(Γ(α))n −∞

Puesto que h1 es la densidad de log(Z1 ) y hn−1 es la densidad de Σni=2 log(Zi ), donde


las Zi son variables aleatorias independientes con distribución exp(1), i = 1, ..., n,
entonces la densidad de Yn = Σni=1 log(Zi ) = log(Z1 ) + Σni=2 log(Zi ) es
Z ∞
hn (yn ) = h1 (w)hn−1 (yn − w)dw.
−∞

Ası́, la función de densidad de T es


1
g(t; α) = e(α−1)t hn (t),
(Γ(α))n

donde hn (t) es la densidad de la suma de los logaritmos de una muestra aleatoria de


tamaño n de la distribución exp(1).

De (a) y (b) se tiene que la densidad de T es la función (7). Además es inmediato


comprobar que
g(t; α2 )
g(t; α1 )
es creciente como función de t si α1 < α2 . Por lo tanto, si realizamos la prueba de
hipótesis H0 : α ≤ α0 vs H1 : α > α0 , la prueba que rechaza H0 si y sólo si T > t0 es
una prueba uniformemente más potente de nivel γ, donde γ = Pα0 (T > t0 ).

Ejemplo 2. Sea la función de distribución exponencial truncada

eθx − 1
F (x; θ) = , x ∈ (0, 1) , θ ∈ R.
eθ − 1
Journal of Basic Sciences, año 2 (4), enero-abril 2016

10

Esta familia aparece en Deemer y Votaw [3]. Si X1 , ..., Xn es una muestra aleatoria de
una población con distribución exponencial truncada, entonces su función de densidad
conjunta es  n
θ n
fn (x1 , ..., xn ; θ) = eθΣi=1 xi ,
1−θ
luego el estadı́stico suficiente minimal de θ es
n
X
T = Xi .
i=1

O’Reilly y Rueda [11] obtuvieron la función de densidad de T , la cual es


 n
θ
g(t; θ) = In (t) eθt , t ∈ (0, n) ,
eθ − 1

donde
n  
1 X n j n−1
In (t) = (−1) (t − j)+
(n − 1)! j=0 j

es la función de densidad de la suma de n variables aleatorias independientes con


distribución uniforme en (0, 1); (t − j)+ es la parte positiva de (t − j). Es directo
comprobar que
g(t; θ2 )
g(t; θ1 )
es creciente como función de t si θ1 < θ2 . De aquı́, si llevamos a cabo la prueba de
hipótesis H0 : θ ≤ θ0 vs H1 : θ > θ0 , la prueba que rechaza H0 si y sólo si T > t0 es
una prueba uniformemente más potente de nivel α, donde α = Pθ0 (T > t0 ).

Referencias

[1] Ash, R. B. (2002). Real analysis and probability. Academic Press, New York.

[2] Casella, G. and R. L. Berger (2002). Statistical inference. Duxbury, USA.

[3] Deemer, W. L. and D. F. Votaw (1955). Estimation of parameters of truncated or cen-


sored exponential distributions. Annals of Mathematical Statistics, 26, 498-504.

[4] Fay, M. P. and E. J. Feuer (1997). Confidence intervals for directly standardized rates:
a method based on the gamma distribution. Statistics in Medicine. 16, 791-801.

[5] Gelfand, A. E., A. F. M. Smith and T. Lee (1992). Bayesian analysis of constrained
parameter and truncated data problems usings Gibbs sampling. Journal of the American
Statistical Association, 87(418), 523-532.

[6] Gómez-Déniz, E. y J. M. Sarabia (2008). La distribución binomial exponencial truncada


con aplicaciones en el sector del seguro de automóviles. Anales del Instituto de Actuarios
Españoles, Tercera Época, 14, 3-22.

[7] Husak, G. J., J. Michaelsen, and C. Funk (2007). Use of the gamma distribution to
represent monthly rainfall in Africa for drought monitoring applications. International
Journal of Climatology, 27, 935-944.

[8] Lehmann, E. L. (1959). Testing statistical hypotheses. Wyley, New York.


Journal of Basic Sciences, año 2 (4), enero-abril 2016

11

[9] Mood, A. M., F. A. Graybill and D. C. Boes (1974). Introduction to the theory of
statistics. McGraw-Hill, Singapore.

[10] Nájera, R. E. (2014). La distribución fiducial en modelos que no son de grupo. Cómo
simular de ella. Tesis de Doctorado en Ciencias. Universidad Nacional Autónoma de
México.

[11] O’Reilly, F. and R. Rueda (2007). Fiducial inference for the exponencial distribution.
Communications in Statistics-Theory and Methods, 36, 2207-2212.

También podría gustarte