Inferencia - MAT031 - SP
Inferencia - MAT031 - SP
Estadı́stica
Departamento de Matemáticas
Inferencia
1 / 155
Clase 17: Inferencia
2 / 155
Inferencia
En la inferencia el objetivo es obtener información de los parámetros de
un modelo a partir de los datos conocidos del fenómeno en estudio, es
decir, determinar valores factibles a partir de los datos.
Nuestras principales herramientas estadı́sticas para llevar esto a cabo son:
I Estimación puntual.
I Estimación por intervalos.
I Pruebas de hipótesis.
Definiciones previas:
Parámetro: Caracterı́stica numérica de la distribución de la población
(datos) que describe la masa de probabilidad de la caracterı́stica de
interés. Habitualmente se denota con la letra θ (notar que θ puede
corresponder a un vector de parámetros).
Espacio paramétrico: Conjunto de posibles valores que pueden ser
consideramos para los parámetros. Se simboliza por Θ
3 / 155
EL PROCESO DE INFERENCIA ESTADISTICA
Inferencia
4 / 155
Definiciones previas:
5 / 155
Definiciones previas:
6 / 155
Estimación puntual: Método de los momentos
Consiste en igualar momentos poblacionales apropiados de la distribución
con momentos muestrales. Este método requiere que existan tantas
ecuaciones como parámetros se desean estimar.
ESTIMACIÓN PUNTUAL
Muestreo
Modelo Estimador
Muestra Aleatoria
supuesto
, ,…, , ,…, )
X, , ;
Exploración
Descripción
Gráficos
Modelo
Estimación Puntual
estimado
, ,…, )
, ;
Inferencia
Espacio paramétrico
Θ
1 7 / 155
Definición: Momentos muestrales
Sean X1 , . . . , Xn una m.a. con función de probabilidad fX (x; θ).
Entonces el r-ésimo momento muestral en torno a cero se define como:
n
1X r
Mr = X
n i=1 i
Momentos poblacionales:
Sean X1 , . . . , Xn una m.a. con función de probabilidad fX (x; θ).
Entonces el r-ésimo momento poblacional en torno a cero se define como:
µr = E[X r ]
8 / 155
Ejemplo 1:
P [X = x] = px (1 − p)1−x , x = 0, 1
pb = X
9 / 155
Ejemplo 2:
10 / 155
Ejemplo 3:
Sea X1 , . . . , Xn una m.a. de una población con distribución
Gamma(α, λ). En este caso sabemos que
α α
E[X] = , V [X] =
λ λ2
El primer momento µ1 lo obtenemos directamente de la ecuación anterior
µ1 = αλ . Si recordamos la fórmula para la varianza
V [X] = E[X 2 ] − E[X]2 podemos obtener cual es el segundo momento
α α2 α + α2
µ2 = E[X 2 ] = V [X] + E[X]2 = + =
λ2 λ2 λ2
por lo tanto
α + α2
µ2 =
λ2
Despejando α y λ se obtiene:
µ1 µ21
λ
b= , α
b=
µ2 − µ21 µ2 − µ21
11 / 155
Ejemplo 4
X ∼ N (µ, σ 2 )
.
Sabemos que E[X] = µ, luego σ 2 = E[X 2 ] − µ2 . En consecuencia los
estimadores de momentos de µ y σ 2 son
µ
b = µ1 , c2 = µ2 − µ2
σ 1
12 / 155
Estimación puntual: Método de máxima verosimilitud
13 / 155
Dado que debemos buscar aquel vector θb que maximiza la verosimilitud y
esto se lleva a cabo derivando para buscar candidatos a máximos, aveces
es conveniente utilizar el logaritmo de la verosimilitud. El logaritmo es
una transformación uno a uno, por lo tanto mapea máximos en máximos
y mı́nimos en mı́nimos.
log-verosimilitud: Esta se define como el logaritmo natural de la
verosimilitud.
`(θ; X1 , . . . , Xn ) = ln (L(θ; X1 , . . . , Xn ))
14 / 155
Ejercicio:
Encuentre el estimador máximo verosı́mil del parámetro λ de una
distribución de Poisson.
Solución: Suponga que x = (x1 , x2 , ..., xn ) son los datos asociados a una
muestra aleatoria X1 , X2 , ..., Xn de una población Poisson, con función
de probabilidad dada por
λx e−λ
f (x, λ) = , λ > 0, x ∈ {0, 1, 2, 3, ...}
x!
La función de verosimilitud es
15 / 155
La log-verosimilitud está dado por,
X
l(λ) = ln L(x, λ) = ln(λ) xi − nλ − ln(x1 !x2 ! · · · xn !)
Entonces,
∂l(λ) 1X
= xi − n = 0
∂λ λ
P
La solución de esta ecuación es λ = xi /n. Por tanto,
P
λ̂ = X̄ = Xi /n es el estimador máximo verosı́mil de λ. Además, la
solución obtenida es el valor de λ que maximiza la verosimilitud puesto
que
∂ 2 l(λ) 1 X
2
=− 2 xi − n < 0
∂λ λ
16 / 155
Ejemplo 1: Continuación
Sea X1 , . . . , Xn una m.a. de tamaño n de una población cuya función de
cuantı́a viene dada por:
P [X = x] = px (1 − p)1−x , x = 0, 1
pb = X
17 / 155
Ejemplo 2: Continuación
Sea X1 , . . . , Xn una m.a. de una población con distribución exponencial,
es decir
fX (x) = λe−λx
λ
b = 1/X
18 / 155
Caso Multiparamétrico
19 / 155
Obtenga el estimador máximo verosı́mil de los parámetros de un modelo
normal.
Solución: Sea x = (x1 , x2 , . . . , xn ) el vector de datos de una muestra
aleatoria tomada de una población normal de media µ y varianza σ 2 .
Entonces,la función de verosimilitud es:
1 1 x1 −µ 2 1 1 x2 −µ 2 1 1 xn −µ 2
f (x, µ, σ 2 ) = √ e− 2 ( σ ) √ e− 2 ( σ ) · · · √ e− 2 ( σ )
2πσ 2πσ 2πσ
n
1 1
P xi −µ 2
= √ e− 2 ( σ )
2πσ
La log-verosimilitud es:
20 / 155
Las ecuaciones de verosimilitud son
∂l(µ, σ 2 ) ∂l(µ, σ 2 )
=0 y =0
∂µ ∂σ 2
(xi − µ)2
P
1X xi − µ 1 n
−2 − =0 y − + =0
2 σ σ 2σ 2 2(σ 2 )2
X X
(xi − µ) = 0 y − nσ 2 + (xi − µ)2 = 0
21 / 155
Clase 17: Inferencia
22 / 155
Error cuadrático medio
23 / 155
Esta idea lleva a definir el concepto de eficiencia relativa.
ECM (θ̂1 )
e(θ̂1 , θ̂2 ) =
ECM (θ̂2 )
Se dice que θ̂1 es más eficiente en error cuadrático medio que θ̂2 para
estimar θ si e(θ̂1 , θ̂2 ) < 1.
24 / 155
El siguiente teorema proveé un método para calcular el error cuadrático
medio en términos de la media del estimador E(θ̂) y de la varianza del
estimador V ar(θ̂) .
Teorema
Si existen la esperanza E(θ̂) y la varianza V ar(θ̂) del estimador θ̂,
entonces.
ECM (θ̂) = V ar(θ̂) + [E(θ̂) − θ]2
25 / 155
Obs: Del Error Cuadrático Medio
26 / 155
Defininición: Estimador insesgado
Se dice que θ̂ es un estimador insesgado para θ si E(θ̂) = θ .
P
Ejemplo: Determine si el estimador λ̂ = X̄ = Xi /n del parámetro λ
de una población Poisson es insesgado.
Solución: Se sabe que si X tiene distribución Poisson, entonces su
esperanza es E(X) = λ. Luego, para la muestra aleatoria
X1 , X2 , . . . , Xn se tiene que E(Xi ) = λ para cada i = 1, 2, ..., n.
X
E(λ̂) = E(X̄) = E Xi /n
X
= E(Xi )/n
X X
= E(Xi )/n = λ /n = nλ/n = λ
P
Como E(λ̂) = λ se concluye que el estimador λ̂ = X̄ = Xi /n del
parámetro λ de una población Poisson es insesgado.
27 / 155
Definición:
Si limn→∞ E(θ̂) = θ se dice que el estimador es asintóticamente
insesgado.
V ar(θ̂1 )
e(θ̂1 , θ̂2 ) =
V ar(θ̂2 )
28 / 155
Idealmente, entre todos los estimadores insesgados de θ uno elegirá el
que tenga menor varianza. Esta idea lleva al concepto de estimador
insesgado de varianza uniformemente mı́nima.
Definición:
Se dice que θ̂ es un Estimador Insesgado de Varianza Uniformemente
Mı́nima (EIVUM) para θ si cumple dos propiedades: a) E(θ̂) = θ
b) V ar(θ̂) ≤ V ar(θ)
e para cualquier otro estimador insesgado θ.
e
29 / 155
Estimadores Consistentes
30 / 155
P
Solución: Aquı́ λ̂ = X̄ = Xi /n y se mostró anteriormente que es un
estimador insesgado. Es decir, se mostró que E(λ̂) = λ
La varianza de este estimador es,
X
V ar(λ̂) = V ar(X̄) = V ar Xi /n
X
= V ar(Xi )/n2
X
= λ /n2 = nλ/n2 = λ/n
31 / 155
Sea θ̂ un estimador de θ basado en una muestra aleatoria
X1 , X2 , . . . , Xn . Se dice que θ̂ es consistente simple si θ̂ converge en
probabilidad a θ . Esto es, si para cualquier ε > 0 se tiene que
32 / 155
Desigualdad de Chebyshev
Sea X variable aleatoria con E(X) = µ y V ar(X) = σ 2 . Entonces, para
cualquier ε > 0 se tiene que
σ2
P (|X − µ| > ε) ≤
ε2
V ar(θ̂)
P (|θ̂ − E(θ̂)| > ε) ≤
ε2
33 / 155
Ejemplo: Determine si el estimador del parámetro λ de una población
Poisson es consistente simple.
P
Solución: Aquı́, el estimador de λ es λ̂ = X̄ = Xi /n y se mostró en
ese ejemplo que es insesgado. Es decir, se mostró que E(λ̂) = λ
En el Ejemplo ?? se probó que la varianza de este estimador es
V ar(λ̂) = λ/n. Entonces, la desigualdad de Chebyshev toma la forma:
V ar(λ̂) λ
P (|λ̂ − E(λ̂)| > ε) ≤ 2
⇔ P (|λ̂ − λ| > ε) ≤ 2
ε nε
Pero, limn→∞ λ/(nvarepsilon2 ) = 0. Entonces, por el teorema del
sandwich se tiene que
34 / 155
Clase 17: Inferencia
35 / 155
Intervalos de confianza
P [θbI ≤ θ ≤ θbS ] = 1 − α
36 / 155
La idea se puede representar mediante la siguiente imagen:
37 / 155
Definición: Cantidad Pivotal
Una cantidad pivotal es una estadı́stica o expresión aleatoria Q(X; θ) que
cumple tres requisitos,
1. Q depende de la muestra aleatoria X = (X1 , X2 , . . . , Xn ).
2. Q depende del parámetro θ.
3. La distribución de Q no depende de θ.
38 / 155
Ejemplo: Construcción de un intervalo de confianza
39 / 155
Como se observa en la figura la elección q1 y q2 no es única, pero tiene
sentido de que busquemos el intervalo que minimice la distancia entre q1
y q2 , esto se logra cuando se produce igualdad de probabilidades en las
colas.
40 / 155
esto es
41 / 155
De la última idea podemos extraer que:
√
(X − µ) n
P Zα/2 ≤ ≤ Z1−α/2 = 1 − α
σ
σ σ
P Zα/2 √ − X ≤ −µ ≤ Z1−α/2 √ − X = 1 − α
n n
σ σ
P X − Z1−α/2 √ ≤ µ ≤ X − Zα/2 √ =1−α
n n
42 / 155
Comentarios respecto a los Intervalos de Confianza para
una media µ
43 / 155
Comentarios respecto a los Intervalos de Confianza para
una media µ
44 / 155
Comentarios respecto a los Intervalos de Confianza para
una media µ
45 / 155
En el ejemplo anterior hemos considerado el caso en que la varianza σ 2
es conocida para poder construir un intervalo de confianza para la media
µ, pero cuando la varianza es desconocida no podemos utilizar el
intervalo anterior.
En el caso de que no se conozca la varianza podemos buscar un intervalo
para la media utilizando la desviación estándar muestral. Claro que en
este caso la distribución de nuestro estadı́stico no será normal.
Es por esto que necesitamos definir las siguientes distribuciones
46 / 155
Distribución chi-cuadrado
Se dice que una v.a. X tiene una distribución chi-cuadrado con ν grados
de libertad si su densidad de tiene la forma:
1
f (x) = xν/2−1 e−x/2 , x>0
2ν/2 Γ(ν/2)
R∞
con Γ(α) = 0
y α−1 e−y dy y ν entero positivo.
En este caso anotaremos X ∼ χ2ν .
47 / 155
Distribución t-Student
48 / 155
Estimación de la media, caso normal
49 / 155
Caso de varianza σ 2 conocida
σ
IC1−α (µ) = X ∓ √ Z(1 − α/2)
n
Algunas propiedades:
I Esta elección minimiza la longitud entre el intervalo inferior y el
intervalo superior.
I Mientras mayor sea la cantidad de datos n más pequeño será el
intervalo.
50 / 155
Ejemplo:
51 / 155
Solución:
X := Nivel de satisfacción en el trabajo de los empleados de la empresa
TC Auditores medido en la escala 0-100.
Los datos del enunciado son que X ∼ N (µ; 144), X̄ = 78, 2, σ = 12 y
α = 0, 05, entonces
σ
IC(µ) = X ∓ √ Z(1 − α/2)
n
12
ic(µ) = 78, 2 ∓ √ · 0, 96
18
≈ 78, 2 ∓ 5, 5
≈ 72, 7 ; 83, 7
52 / 155
Clase 17: Inferencia
53 / 155
Teorema del Lı́mite Central
Sn − µ
Z= √
σ n
Entonces: Z z
1 2
lim P [Z ≤ z] = √ e−x /2
dx
n→∞ 2π −∞
54 / 155
Este teorema también se suele enunciar para el caso del promedio X, es
decir
(X − µ)
Z= √
σ/ n
Entonces: Z z
1 2
lim P [Z ≤ z] = √ e−x /2
dx
n→∞ 2π −∞
Esto nos permite justificar que para un n grande (por lo general mayor a
30) la distribución de Z es aproximadamente normal estándar
Ası́, un intervalo de confianza aproximado para estimar una media de
cualquier población con varianza σ 2 conocida.
σ
IC1−α (µ) = X ∓ √ Z(1 − α/2)
n
55 / 155
Intervalo para estimar una proporción
Si se tiene una m.a. X1 , . . . , Xn tomada de una población con
distribución Bernoulli de parámetro p podemos construir un intervalo
para p a partir del TCL.
Aquı́ la media poblacional es µ = p, con 0 < p < 1 y su estimador
puntual es p̂ = X. Su varianza es σ 2 = p(1 − p) y su estimador puntual
es σ̂ 2 = p̂(1 − p̂) = X(1 − X). Entonces, el teorema del lı́mite central
establece que la estadı́stica
(p̂ − p)
Z=p
p̂(1 − p̂)/n
56 / 155
Ejemplo:
57 / 155
Solución
La m.a. es de tamaño n = 764. La v.a. es X :=Intención de compra de
los consumidores clasificada como si o no. Aquı́ el parámetro p
corresponde a la verdadera proporción de consumidores que está
dispuesto a comprar el nuevo producto y su estimación resulta ser
p̂ = 193/764 = 0, 253.
Entonces el intervalo resulta ser,
r
0, 253(1 − 0, 253)
IC(p) = 0, 253 ± z(0, 995)
764
= 0, 253 ± 0, 0157(2, 576) = 0, 253 ± 0, 0405
= [0, 212; 0, 294]
58 / 155
Caso de varianza desconocida
Si X1 , . . . , Xn es una muestra aleatoria de una población con
distribución normal de media µ y varianza σ 2 desconocida y se quiere
estimar µ mediante un intervalo de confianza. En este caso, la varianza
poblacional σ 2 desconocida es reemplazada por su estimador insesgado
S = (Xi − X̂)2 /(n − 1) y la cantidad pivotal que se emplea es,
2
P
X̄ − µ
T = √ ∼ tn−1
S/ n
59 / 155
Ejemplo
0,8 -0,3 -0,6 0,5 0,6 0,1 0,3 -0,5 -0,1 -0,2
60 / 155
Solución a) X := Rentabilidad de las acciones de la Bolsa de Valores.
X ∼ N (µ; σ 2 ) con µ y σ 2 desconocidos.
Del enunciado del problema se tiene que n = 10, la media muestral es
X̄ = 0, 06, la desviación estándar de la muestra es S = 0, 4788876 y
α = 0, 05. Ası́ y el cuantil de la t-student es
tn−1 (1 − α/2) = t10−1 (0, 975) = 2, 262. Entonces, el intervalo de
confianza del 95% para estimar la rentabilidad media de las acciones
transadas en esa Bolsa de Valores es:
S S
IC(µ) =X̄ − √ tn−1 (1 − α/2) ; X̄ + √ tn−1 (1 − α/2)
n n
ic(µ) = 0, 06 − 0, 15143756(2, 262) ; 0, 06 + 0, 15143756(2, 262)
ic(µ) ≈ 0, 06 − 0, 34 ; 0, 06 + 0, 34
≈ − 0, 28 ; 0, 40
61 / 155
B) El intervalo
estimado del 95% de confianza para la rentabilidad media
es ic(µ) = − 0, 28 ; 0, 40 y contiene el valor pronosticado de 0, 3%.
Entonces, la información contenida en la muestra de tamaño n = 10 no
descarta el pronóstico de los expertos.
C) Con n = 30 se tiene que tn−1 (1 − α/2) = t29 (0, 975) = 2, 045, el
intervalo de confianza del 95% para estimar la rentabilidad media de las
acciones transadas en esa Bolsa de Valores es,
ic(µ) = 0, 06 − 0, 08743251(2, 045) ; 0, 06 + 0, 08743251(2, 045)
≈ 0, 06 − 0, 18 ; 0, 06 + 0, 08743251(2, 045)
≈ − 0, 11 ; 0, 24
62 / 155
Intervalo para estimar una varianza σ 2 en caso normal con
media µ desconocida
Sea X1 , . . . , Xn una m.a. de una distribución normal de media y varianza
desconocidos, y que el interés recae en estimar mediante un intervalo de
confianza para la varianza poblacional σ 2 .
2
El estimador insesgado de esta varianza es S 2 =
P
(Xi − X̄) /(n − 1) y
la cantidad pivotal adecuada es
(n − 1)S 2 /σ 2 ∼ χ2n−1
(n − 1)S 2 (n − 1)S 2
2
P ≤σ ≤ 2 =1−α
χ2n−1 (1 − α/2) χn−1 (α/2)
63 / 155
Ası́, un intervalo de confianza para estimar la varianza σ 2 es,
(n − 1)S 2 (n − 1)S 2
2
IC(σ ) = ;
χ2n−1 (1 − α/2) χ2n−1 (α/2)
64 / 155
Ejemplo:
4,96 5,02 5,00 5,04 5,07 4,99 4,98 4,97 5,05 4,96 5,02
5,01 5,00 4,97 4,96 5,04 4,96 5,07 4,99 4,99 4,97 5,05
65 / 155
Solución
Aquı́, n = 22, X̄ = 5, 00, S 2 = 0, 001356.
Escogiendo α = 0, 01 se tiene que,
"s s #
(22 − 1)0, 001356 (22 − 1)0, 001356
IC(σ) = ;
41, 40 8, 03
= [0, 026 ; 0, 060]
67 / 155
Hipótesis estadı́stica
68 / 155
Algunos ejemplos:
1. Hipótesis respecto a la distribución de probabilidad:
H0 : µ ≤ µ0
H1 : µ > µ0
H0 : p1 − p2 = 0
H1 : p1 − p2 6= 0
H0 : X e Y son independientes
H1 : X e Y no son independientes
69 / 155
La decisión de rechazar o no rechazar H0 a partir de una muestra
aleatoria tiene implı́cita la posibilidad de equivocarse porque la muestra
sólo entrega información parcial de lo que ocurre a nivel poblacional.
70 / 155
La potencia de una regla de decisión o test se define como la
probabilidad de hacer una decisión correcta del tipo Rechazar H0 (a
partir de la muestra) cuando H0 es Falsa (en la población)
¿Cuál de los dos errores es más grave? ¿El Error tipo I o el Error
tipo II?
La mayorı́a de las veces resulta más grave el Error tipo I. Por tanto, la
metodologı́a estadı́stica fija en primer lugar la probabilidad α y luego
entre todas las reglas de decisión que tienen una probabilidad de Error
tipo I menor o igual que α se busca la regla de decisión con la mayor
potencia o menor β.
71 / 155
Estadı́stica de prueba, valor crı́tico y región de rechazo
72 / 155
Muestra
𝑋 , 𝑋2 , … , 𝑋𝑛
Estimador de
𝑋
73 / 155
α = P (Rechazar H0 | H0 es V erdadero)
= P (X̄ > c | µ = µ0 )
X̄ − µ c−µ
= P √ > √ | µ = µ0
σ/ n σ/ n
X̄ − µ0 c − µ0
= P √ > √
σ/ n σ/ n
c − µ0 X̄ − µ0
= P Z> √ porque Z = √ ∼ N (0; 1)
σ/ n σ/ n
c − µ0
⇔ √ = z(1 − α)
σ/ n
σ
⇔ c = µ0 + √ z(1 − α)
n
74 / 155
Supongamos que X ∼ N (µ; σ 2 ) con σ 2 = 64 y que se quieren contrastar
la hipótesis H0 : µ = 12 v/s H1 : µ = 15. Se toma una muestra de
tamaño n = 25 y resulta una media X̄ = 14, 7.
Solución
a) Estadı́stica de prueba observada:
X̄ − µ0 (14, 7 − 12)
Zobs = √ = √ ≈ 1, 69
σ/ n 8/ 25
75 / 155
Decisión: Como Zobs = 1, 69 > 1, 645 la estadı́stica de prueba cae
en la región de rechazo y por tanto se rechaza H0 : µ = 12 en favor
de H1 : µ = 15 con α = 0, 05.
Conclusión: Con α = 0, 05 la muestra no es consistente con H0 y
sugiere aceptar H1 : µ = 15
β = P (Aceptar H0 | H0 es F also)
σ
= P X̄ ≤ µ0 + √ z(1 − α) | µ = µ1
n
µ0 + √σn z(1 − α) − µ1
!
X̄ − µ1
= P σ ≤ σ
√ √
n n
√σ z(1 −
!
µ0 + n
α) − µ1
⇔β = P Z≤ (2)
√σ
n
76 / 155
Reemplazando los datos se obtiene que
12 + √825 1, 645 − 15
!
β=P Z≤ 8 ≈ P (Z ≤ −0, 23) ≈ 0, 4090
√
25
77 / 155
Tamaño de la muestra para α y β dados
β = P (Aceptar H0 | H0 es F also)
σ
= P X̄ ≤ µ0 + √ z(1 − α) | µ = µ1
n
µ0 + √σn z(1 − α) − µ1
!
X̄ − µ1
= P σ ≤ σ
√ √
n n
√σ z(1 −
!
µ0 + n
α) − µ1
= P Z≤
√σ
n
78 / 155
Esta condición se cumple si
µ0 + √σ z(1 − α) − µ1
n
= z(β) = −z(1 − β)
√σ
n
σ
⇔ √ [z(1 − α) + z(1 − β)] = µ1 − µ0
n
2
z(1 − α) + z(1 − β)
⇔ n = σ2
µ1 − µ0
79 / 155
La formula anterior permite resaltar varios hechos importantes.
80 / 155
5. La formula anterior puede ser escrita como
2
z(1 − α) + z(1 − β)
n=
δ
donde
µ1 − µ0
δ=
σ
se llama tamaño de efecto y su valor absoluto representa la distancia
estandarizada entre las dos distribuciones normales propuestas por
las hipótesis H0 : µ = µ0 y H1 : µ = µ1 . Es decir, el tamaño de
efecto indica que fracción es la distancia entra las dos distribuciones
normales µ1 − µ0 de la desviación estándar común σ.
81 / 155
Ejemplo:
Suponga que X es una variable aleatoria normal con media µ y varianza
σ 2 = 64. Hasta ahora se sabı́a que µ = 50 pero hay sospechas de que esa
media ha aumentado. Para probar esta hipótesis se toma una muestra
aleatoria de tamaño n = 36 y resulta X̄ = 54. Usando α = 0, 05
establezca si la muestra es consistente con H0 .
Solución
Hippótesis: H0 : µ = 50 v/s H1 : µ > 50,
Estadı́stica de Prueba:
X̄ − µ0
Z= √
σ/ n
82 / 155
Región de rechazo: Z > z(1 − α) = z(0, 95) = 1, 645,
Decisión: Como 3 > 1, 645 la estadı́stica de prueba resultó estar en la
región de rechazo y en consecuencia la decisión es rechazar H0 : µ = 50
en favor de H1 : µ > 50. Conclusión: Los datos del problema sugieren
que la media poblacional ha aumentado por sobre el valor µ = 50.
83 / 155
Clase 17: Inferencia
84 / 155
Hipótesis simple v/s unilateral
Para probar las hipótesis simples
85 / 155
Del mismo modo, para contrastar las hipótesis,
H0 : µ = µ0 v/s H1 : µ < µ0
86 / 155
Hipótesis simple v/s bilateral
H0 : µ = µ0 v/s H1 : µ 6= µ0
87 / 155
Solución
Parece natural rechazar H0 : µ = µ0 cuando X̄ se aleja de µ0 hacia la
izquierda o hacia la derecha, esto es se rechaza H0 : µ = µ0 si X̄ < c1 o
X̄ > c2 como muestra la figura:
Muestra
𝑋 , 𝑋 , … , 𝑋𝑛
Estimador de
𝑋
Región de
Región de rechazo no Rechazo Región de rechazo
88 / 155
α = P (Rechazar H0 | H0 es V erdadero)
= P (X̄ < c1 ∨ X̄ > c2 | µ = µ0 )
X̄ − µ c1 − µ X̄ − µ c2 − µ
= P √ < √ ∨ √ > √ | µ = µ0
σ/ n σ/ n σ/ n σ/ n
X̄ − µ0 c1 − µ0 X̄ − µ0 c2 − µ0
= P √ < √ ∨ √ > √
σ/ n σ/ n σ/ n σ/ n
c1 − µ0 c −µ X̄ − µ0
= P Z< √ ∨Z > 2 √ 0 porque Z = √ ∼ N (0; 1)
σ/ n σ/ n σ/ n
c1 − µ0 c2 − µ0
⇔ α=P Z< √ +P Z > √
σ/ n σ/ n
89 / 155
Existen muchas elecciones posibles para c1 y c2 . Una posibilidad es
escoger esas constantes de manera simétrica en torno a µ0
c1 − µ0 c2 − µ0
P Z< √ = α/2 y P Z > √ = α/2
σ/ n σ/ n
c1 − µ0 c −µ
⇔ √ = z(α/2) y 2 √ 0 = z(1 − α/2)
σ/ n σ/ n
σ σ
⇔ c1 = µ0 + √ z(α/2) y c2 = µ0 + √ z(1 − α/2)
n n
90 / 155
Entonces, la regla de decisión propuesta es:
σ σ
Rechace H0 si X̄ > µ0 + √ z(1 − α/2) ∨ X̄ < µ0 + √ z(α/2)
n n
Equivalentemente
X̄ − µ0 X̄ − µ0
Rechace H0 si Z = √ > z(1−α/2) ∨ Z= √ < z(α/2)
σ/ n σ/ n
91 / 155
El valor p y el valor de significancia
92 / 155
3. El nivel de significancia α permite rechazar o no rechazar H0 pero
no permite diferenciar el grado de evidencia que hay a favor o en
contra de H0 .
Por ejemplo, para α = 0, 05 se tiene que
z(1 − α) = z(1 − 0, 05) = 1, 645 y en consecuencia tanto para
Zobs1 = 1, 73 como para Zobs2 = 3, 41 la decisión es rechazar H0 .
Sin embargo, Zobs2 = 3, 41 ofrece mayor evidencia en contra de H0 .
93 / 155
Se define el valor p de una regla de decisión como la probabilidad de
obtener una discrepancia mayor o igual a la observada en la muestra
cuando H0 es cierta.
Esto es equivalente a encontrar el mı́nimo valor de α para el cual
rechazamos H0 . Esto es, se rechaza H0 para cualquier α tal que valor
p ≤ α.
En el caso de pruebas para la media de una población normal con
varianza σ 2 conocida tal como H0 : µ = µ0 v/s H0 : µ > µ0 la medida
de discrepancia observada
√ en la muestra cuando H0 : µ = µ0 es cierta es
Zobs = (X̄ − µ0 )/(σ/ n) y el valor p de acuerdo a la definición es
p = P (Z ≥ Zobs )
94 / 155
Pruebas para la media
X̄ − µ0
Estadı́stica de prueba: Z= √ ∼ N (0; 1)
σ/ n
Hipótesis Hipótesis
Nula Alternativa Rechace H0 si Valor p
H0 : µ = µ0 H1 : µ 6= µ0 Zobs > z(1 − α/2) ó Zobs < z(α/2) 2P (Z >| Zobs |)
H0 : µ ≤ µ0 H1 : µ > µ0 Zobs > z(1 − α) P (Z > Zobs )
H0 : µ ≥ µ0 H1 : µ < µ0 Zobs < z(α) P (Z < Zobs )
95 / 155
Pruebas para la media de una población normal con
varianza desconocida
X̄ − µ0
I La estadı́stica de prueba Z = √ ∼ N (0; 1) se reemplaza por
σ/ n
X̄ − µ0
T = √ ∼ tn−1 .
S/ n
96 / 155
X̄ − µ0
Estadı́stica de prueba: T = √ ∼ tn−1
S/ n
Hipótesis Hipótesis
Nula Alternativa Rechace H0 si Valor p
H0 : µ = µ0 H1 : µ 6= µ0 Tobs > tn−1 (1 − α/2) ó Tobs < tn−1 (α/2) 2P (T >| Tobs |)
H0 : µ ≤ µ0 H1 : µ > µ0 Tobs > tn−1 (1 − α) P (T > Tobs )
H0 : µ ≥ µ0 H1 : µ < µ0 Tobs < tn−1 (α) P (T < Tobs )
97 / 155
Ejercicio:
98 / 155
Solución
a) H0 : µ ≤ 10 v/s H1 : µ > 10
10,9−10
b) Tobs = √
1,2/ 48
≈ 5, 196
c) Con α = 0, 01 el punto critico es t47 (1 − 0, 01) = 2, 408
Como Tobs =≈ 5, 196 > 2, 408 = t47 se rechaza H0 .
99 / 155
Pruebas para la media usando el teorema del lı́mite central
100 / 155
X̄ − µ0
Estadı́stica de prueba: Z= √ ≈ N (0; 1)
σ/ n
Hipótesis Hipótesis
Nula Alternativa Rechace H0 si Valor p
H0 : µ = µ0 H1 : µ 6= µ0 Zobs > z(1 − α/2) ó Zobs < z(α/2) 2P (Z >| Zobs |)
H0 : µ ≤ µ0 H1 : µ > µ0 Zobs > z(1 − α) P (Z > Zobs )
H0 : µ ≥ µ0 H1 : µ < µ0 Zobs < z(α) P (Z < Zobs )
101 / 155
Pruebas para una proporción
102 / 155
p̂ − p0
Estadı́stica de prueba: Z=p ≈ N (0; 1)
p0 (1 − p0 )/n
Hipótesis Hipótesis
Nula Alternativa Rechace H0 si Valor p
H0 : p = p0 H1 : p 6= p0 Zobs > z(1 − α/2) ó Zobs < z(α/2) 2P (Z >| Zobs |)
H0 : p ≤ p0 H1 : p > p0 Zobs > z(1 − α) P (Z > Zobs )
H0 : p ≥ p0 H1 : p < p0 Zobs < z(α) P (Z < Zobs )
103 / 155
Ejercicio:
104 / 155
Solución
a) Población: La población estadı́stica es el conjunto de los niveles de
conocimiento de todas las personas que trabajan en el rubro del aseo del
paı́s respecto a la nueva lı́nea de productos de la industria IMPG
Variable: La variable aleatoria subyacente X es el nivel de conocimiento
de las personas que trabajan en el rubro del aseo del paı́s respecto a la
nueva lı́nea de productos de la industria IMPG.
Distribución: Se supone que el nivel de conocimiento X es Bernoulli de
parámetro p con dos niveles: la personas conoce el producto y la persona
no conoce el producto.
Parámetro: El parámetro poblacional de interés es la proporción p de
personas que trabajan en el rubro del aseo del paı́s que conoce la nueva
lı́nea de productos de la industria IMPG.
105 / 155
b) Hipótesis: H0 : p ≤ 0, 1 v/s H1 : pp
> 0, 1
Estadı́stica de prueba: Z = (p̂ − p0 )/ p0 (1 − p0 )/n con p0 = 0, 1
En este problema se tienen los siguientes datos: p0 = 0, 1; n = 300;
p̂ = 36/300 = 0, 12. Entonces, el valor observado de la estadı́stica de
prueba es
p
Zobs = (0, 12 − 0, 10)/ 0, 1(0, 9)/300 ≈ 1, 15
106 / 155
Pruebas para la varianza
107 / 155
(n − 1)S 2
Estadı́stica de prueba: Q= ∼ χ2n−1
σ02
Hipótesis Hipótesis
Nula Alternativa Rechace H0 si Valor p
H0 : σ 2 = σ02 H1 : σ 2 6= σ02 Qobs > χ2n−1 (1 − α/2) ó 2min{P (Q > Qobs ),
Qobs < χ2n−1 (α/2) P (Q < Qobs )}
H0 : σ 2 ≤ σ02 H1 : σ 2 > σ02 Qobs > χ2n−1 (1 − α) P (Q > Qobs )
H0 : σ 2 ≥ σ02 H1 : σ 2 < σ02 Qobs < χ2n−1 (α) P (Q < Qobs )
108 / 155
Ejemplo:
109 / 155
Solución
Aquı́ suponemos que el peso de las pastillas X sigue una distribución
normal con media µ y varianza σ 2 . Las hipótesis a contrastar son,
111 / 155
La clase pasada vimos pruebas de hipótesis para los siguientes parámetros
y escenarios:
I Pruebas para la media µ con σ conocida.
I Pruebas para la media µ con σ desconocida.
I Pruebas para la media µ usando el teorema del lı́mite central.
I Pruebas para una proporción p de una población.
I Pruebas de la varianza σ 2 .
112 / 155
Comparación de medias
113 / 155
Comparación de medias: Varianzas conocidas
En este caso las varianzas poblacionales σ12 y σ22 son conocidas.
I La esperanza de X̄ − Ȳ es E(X̄ − Ȳ ) = E(X̄) − E(Ȳ ) = µ1 − µ2
I Por la independencia la varianza de X̄ − Ȳ es:
σ12 σ2
V ar(X̄ − Ȳ ) = V ar(X̄) + V ar(Ȳ ) = + 2
n1 n2
I Como se trata de dos muestras normales, entonces las distribuciones
de X̄ y Ȳ son normales. En consecuencia, X̄ − Ȳ también tiene
distribución normal.
σ12 σ22
X̄ − Ȳ ∼ N µ1 − µ2 ; +
n1 n2
(X̄ − Ȳ ) − (µ1 − µ2 )
⇔Z= q 2 ∼ N (0; 1)
σ1 σ22
n1 + n2
114 / 155
Comparación de medias: Varianza conocida
Test de hipótesis:
(X̄ − Ȳ ) − D0
Estadı́stica de prueba: Z= q 2 ∼ N (0; 1)
σ1 σ22
n1 + n2
Hipótesis Hipótesis
Nula Alternativa Rechace H0 si Valor p
H0 : µ1 − µ2 = D0 H1 : µ1 − µ2 6= D0 |Zobs | > z(1 − α/2) 2P (Z >| Zobs |)
H0 : µ1 − µ2 ≤ D0 H1 : µ1 − µ2 > D0 Zobs > z(1 − α) P (Z > Zobs )
H0 : µ1 − µ2 ≥ D0 H1 : µ1 − µ2 < D0 Zobs < z(α) P (Z < Zobs )
115 / 155
Comparación de medias: Varianza conocida
Intervalo de confianza :
116 / 155
Ejemplo:
117 / 155
Solución:
Los tiempos de hospitalización en ambas clı́nicas son modelados con
distribuciones normales con varianzas σ12 y σ22 desconocidas. Como los
tamaños de muestras son grandes se puede usar la aproximación normal.
Las hipótesis de la ISAPRE son:
H0 : µ1 − µ2 = 0 v/s H0 : µ1 − µ2 6= 0
El valor observado de la estadı́stica de prueba es
(X̄ − Ȳ ) − D0 (6, 8 − 8, 3) − 0
Zobs = q 2 2
= q ≈ −5, 22
S1 S2 1,22 1,62
n1 + n2 67 + 42
(X̄ − Ȳ ) − (µ1 − µ2 )
Z= q ∼ N (0; 1)
σ n11 + n12
119 / 155
Comparación de medias: Varianzas desconocidas pero
iguales
Prueba de hipótesis
La estadı́stica de prueba cuando H0 : µ1 − µ2 = D0 es verdadero es,
(X̄ − Ȳ ) − D0
T = q ∼ tn1 +n2 −2
Sp n11 + n12
con
(n1 − 1)S12 + (n2 − 1)S22
Sp2 =
n1 + n2 − 2
(X̄ − Ȳ ) − D0
Estadı́stica de prueba: T = q ∼ tn1 +n2 −2
Sp n11 + n12
Hipótesis Hipótesis
Nula Alternativa Rechace H0 si Valor p
H0 : µ1 − µ2 = D0 H1 : µ1 − µ2 =
6 D0 |Tobs | > tn1 +n2 −2 (1 − α/2) 2P (T >| Tobs |)
H0 : µ1 − µ2 ≤ D0 H1 : µ1 − µ2 > D0 Tobs > tn1 +n2 −2 (1 − α) P (T > Tobs )
H0 : µ1 − µ2 ≥ D0 H1 : µ1 − µ2 < D0 Zobs < tn1 +n2 −2 (α) P (T < Tobs )
120 / 155
Comparación de medias: Varianzas desconocidas pero
iguales
Intervalo de confianza:
121 / 155
Ejemplo:
122 / 155
Solución:
Se supondrá que el número de botellas vendidas nuevas y antiguas siguen
distribuciones normales con medias µ1 y µ2 respectivamente. También se
supondrán varianzas poblacionales desconocidas pero iguales. Las
hipótesis son:
H0 : µ1 − µ2 ≤ 0 v/s H1 : µ1 − µ2 > 0
123 / 155
Solución:
124 / 155
Comparación de medias: Varianzas desconocidas y
distintas
Los supuestos en este caso son:
1. X1 , X2 , . . . , Xn1 es una m.a. de una población normal N (µ1 ; σ12 ) e
Y1 , Y2 , . . . , Yn2 es una m.a. de otra población normal N (µ2 ; σ22 ).
2. Las varianzas σ12 y σ22 son desconocidas y distintas.
3. Ambas muestras son independientes.
En este caso lo razonables es reemplazar las varianzas desconocidas σ12 y
σ22 por sus estimadores insesgados S12 y S22 . El resultado es una
estadı́stica de prueba con distribución t-student.
2
(X̄ − Ȳ ) − (µ1 − µ2 ) S12 /n1 + S22 /n2
T = ∼ tν , ν=
(S12 /n1 )2 (S22 /n2 )2
q 2
S1 S22
+ n1 −1 + n2 −1
n1 n2
125 / 155
Comparación de medias: Varianzas desconocidas y
distintas
Prueba de hipótesis
(X̄ − Ȳ ) − D0
Estadı́stica de prueba: T = q ∼ tν
Sp n11 + n12
Hipótesis Hipótesis
Nula Alternativa Rechace H0 si Valor p
H0 : µ1 − µ2 = D0 H1 : µ1 − µ2 =
6 D0 |Tobs | > tν (1 − α/2) 2P (T >| Tobs |)
H0 : µ1 − µ2 ≤ D0 H1 : µ1 − µ2 > D0 Tobs > tν (1 − α) P (T > Tobs )
H0 : µ1 − µ2 ≥ D0 H1 : µ1 − µ2 < D0 Zobs < tν (α) P (T < Tobs )
126 / 155
Comparación de medias: Varianzas desconocidas y
distintas
Intervalo de confianza:
Se obtiene un intervalo de confianza para estimar la diferencia de medias
µ1 − µ2 para el caso de dos muestras normales independientes, con
varianzas poblacionales σ12 y σ22 desconocidas y distintas.
s
S12 S2
IC(µ1 − µ2 ) = (X̄ − Ȳ ) ± + 2 tν (1 − α/2)
n1 n2
127 / 155
Ejemplo: Continuación
128 / 155
Solución:
Ahora se supone que los tiempos de hospitalización en ambas clı́nicas son
modelados con distribuciones normales con varianzas σ12 y σ22
desconocidas y distintas.
Las hipótesis a contrastar para evaluar la sospecha de la ISAPRE son:
H0 : µ1 − µ2 ≥ 0 v/s H0 : µ1 − µ2 < 0
(X̄ − Ȳ ) − D0 (6, 8 − 8, 3) − 0
Tobs = q 2 = q ≈ −5, 22
S1 S22 1,22 1,62
n1 + n2 67 + 42
n1 −1 + n2 −1 76−1 + 42−1
130 / 155
El TLC para dos poblaciones establece que la distribución de la estadı́stica
(X̄ − Ȳ ) − (µ1 − µ2 )
Z= q 2
σ1 σ22
n1 + n2
(X̄ − Ȳ ) − (µ1 − µ2 )
Z= q 2
σ̂1 σ̂22
n1 + n2
131 / 155
Comparación de proporciones:
Prueba de Hipótesis
132 / 155
Comparación de proporciones:
(p̂1 − p̂2 ) − D0
Z=q ≈ N (0; 1)
p̂1 (1−p̂1 ) p̂2 (1−p̂2 )
n1 + n2
133 / 155
Comparación de proporciones:
Prueba de hipótesis
(p̂1 − p̂2 ) − D0
Estadı́stica de prueba: Z=q ≈ N (0; 1)
p̂1 (1−p̂1 ) p̂2 (1−p̂2 )
n1 + n2
Hipótesis Hipótesis
Nula Alternativa Rechace H0 si Valor p
H0 : p1 − p2 = D0 H1 : p1 − p2 =
6 D0 |Zobs | > z(1 − α/2) 2P (Z >| Zobs |)
H0 : p1 − p2 ≤ D0 H1 : p1 − p2 > D0 Zobs > z(1 − α) P (Z > Zobs )
H0 : p1 − p2 ≥ D0 H1 : p1 − p2 < D0 Zobs < z(α) P (Z < Zobs )
134 / 155
Comparación de proporciones:
Intervalo de confianza
135 / 155
Ejemplo:
136 / 155
Solución:
137 / 155
Las muestras apoyan la idea de que las tasas de desempleo en las dos
ciudades son las mismas (valor p = 0, 1835).
La respuesta también se puede dar usando intervalos de confianza:
q
IC(p1 − p2 ) ≈ (0, 07 − 0, 05) ± 0,007(1−0,07)
500 + 0,05(1−0,05)
500 z(1 − α/2)
IC(p1 − p2 ) ≈ 0, 02 ± 0, 015z(1 − α/2)
Como el cero está en estos intervalos, se puede inferir con confianza igual
o superior al 90% que las tasas de desempleo en las dos grandes áreas
urbanas son iguales.
138 / 155
Comparación de varianzas
139 / 155
Comparación de varianzas
140 / 155
Cuando la hipótesis nula H0 : σ12 /σ22 = 1 es verdadera la estadı́stica
anterior se transforma en la estadı́stica de prueba para comparar
varianzas dada por,
S2
F = 12 ∼ Fn1 −1;n2 −1
S2
S12
Estadı́stica de prueba: F = ∼ Fn1 −1;n2 −1
S22
Hipótesis Hipótesis
Nula Alternativa Rechace H0 si Valor p
H0 : σ12 /σ22 = 1 H1 : σ12 /σ22 6= 1 Fobs > Fn1 −1;n2 −1 (1 − α/2) ó min{2P (F > Fobs );
Fobs < Fn1 −1;n2 −1 (α/2) 2P (F < Fobs )}
H0 : σ12 /σ22 ≤ 1 H1 : σ12 /σ22 > 1 Fobs > Fn1 −1;n2 −1 (1 − α) P (F > Fobs )
H0 : σ12 /σ22 ≥ 1 H1 : σ12 /σ22 < 1 Fobs < Fn1 −1;n2 −1 (α) P (F < Fobs )
141 / 155
Comparación de varianzas
Intervalo de confianza
Sean Fn1 −1;n2 −1 (α/2) y Fn1 −1;n2 −1 (1 − α/2) los valores de la variable
F que dejan hacia la izquierda probabilidades (α/2) y (1 − α/2),
entonces un intervalo del (1 − α)100% de confianza para estimar el
cociente σ12 /σ22 es
2 2
S12
σ1 S1
IC = Fn −1;n2 −1 (α/2); 2 Fn1 −1;n2 −1 (1 − α/2)
σ22 S22 1 S2
142 / 155
Resumen de Pruebas de hipótesis:
Pruebas para un parámetro:
I Pruebas para la media caso población normal:
I Con varianza conocida.
I Con varianza desconocida.
I Pruebas para la media de una población cualquiera via TLC.
I Pruebas para una proporción de una población Bernoulli.
I Pruebas para la varianza de una población normal.
Comparación de parámetros:
I Comparación de medias de poblaciones normales.
I Con varianzas conocidas.
I Con varianzas desconocidas pero iguales.
I Con varianzas desconocidas y distintas.
I Comparación de medias via TLC.
I Comparación de proporciones de poblaciones Bernoulli.
I Comparación de varianzas de una población normal.
145 / 155
Ejercicio 2:
Parcela 1 2 3 4 5 6 7 8 9 10
Variedad 1 113 122 118 126 91 108 116 103 99 104
Variedad 2 101 119 103 104 80 97 102 99 87 96
146 / 155
Solución:
147 / 155
Ejercicio 3:
148 / 155
Solución:
149 / 155
Ejercicio 4:
150 / 155
Solución:
151 / 155
Ejercicio 5:
152 / 155
Solución:
153 / 155
Ejercicio 6:
La siguiente tabla muestra los tiempos en minutos para realizar una tarea
con dos métodos diferentes. El interés recae tanto en la media como en
la varianza de dichos tiempos. Se seleccionaron 20 trabajadores
diferentes de modo que aleatoriamente 10 de ellos fueron asignados al
método 1 y los otros 10 al método 2.
Método 1 66 81 67 55 57 60 69 77 79 68
Método 2 61 53 70 65 78 68 55 60 74 56
¿Se puede inferir de la muestra que los tiempos para realizar la tarea con
ambos métodos son iguales?. ¿Qué supuestos son necesarios para
resolver el problema?.
154 / 155
Solución:
155 / 155