Inferencia y Contraste de Hip Otesis: Cap Itulo 1
Temas abordados
Inferencia y Contraste de Hip Otesis: Cap Itulo 1
Temas abordados
Vamos a dar algunas definiciones de conceptos necesarios para el desarrollo de estos temas.
Población: colectivo sujeto del estudio. Cabe distinguir entre población (colectivo en el que
estamos considerando la magnitud sujeta a estudio) y universo (colectivo de todos
los elementos sujetos de estudio). Por ejemplo: si estamos analizando la edad de los
españoles, la población serı́a el conjunto de todas las edades de todos los españoles y el
universo serı́a el conjunto de todos los españoles.
Muestra: subconjunto cualquiera de la población. Para que la muestra nos sirva para extraer
conclusiones sobre la población deberá ser representativa, lo que se consigue seleccio-
nando los elementos al azar.
1
2 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
0+1+2 02 + 1 2 + 2 2 5−3 2
µ= =1 σ2 = − 12 = =
3 3 3 3
Consideramos todas las muestras de tamaño n = 2 con reposición, y calculamos su media:
x1 0 0 0 1 1 1 2 2 2
x2 0 1 2 0 1 2 0 1 2
x2 0 0’5 1 0’5 1 1’5 1 1’5 2
Por tanto, los valores que toma el estadı́stico X 2 (media muestral) son:
Población cualquiera
Sean X1 , X2 , . . . , Xn una m.a. de variables aleatorias identicamente distribuidas con E[Xi ] =
µ y var[Xi ] = σ 2 . No podemos calcular la distribución muestral de los estadı́sticos, pero sı́ se
podrá determinar la esperanza y varianza de los principales estadı́sticos en función de los
parámetros de la distribución de la población.
Media muestral.
X1 + X2 + . . . + Xn
Xn =
n
Teorema 1. E[X n ] = µ (tanto para m.a.s. como irrestricto)
Teorema 2. var[X n ] = σ 2 /n (para m.a.s.)
σ2 N −n
Teorema 3. var[X n ] = n · N −1 (para irrestricto)
Varianza muestral. (los resultados serán para m.a.s.)
∑n ∑ 2
(Xi − X n )2 Xi 2
2
sn = = − Xn
n n
i=1
n−1 2
Teorema 4. E[s2n ] = n σ
Teorema 5. Llamando αn = E[X n ] tenemos
α4 − α2 2(α4 − 2α22 ) α4 − 3α22
var[s2n ] = − −
n n2 n3
1.1. INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA 5
Población normal
ns2n (n−1)s∗2
Teorema 8. σ2
,→ χ2 (n − 1) σ2
n
,→ χ2 (n − 1)
Podemos calcular la media y varianza de las variables s2n (varianza muestral) y s∗2
n
(cuasivarianza muestral) teniendo en cuenta la media y varianza de una distribución
χ2 (n − 1):
n−1 2 2(n − 1)σ 4 2σ 4
E[s2n ] = σ var[s2n ] = E[s∗2
n ]=σ
2
var[s∗2
n ]=
n n2 n−1
Xn − µ Xn − µ
√ ,→ t(n − 1) Análogamente, tenemos √ ,→ t(n − 1)
sn / n − 1 s∗n / n
Proporción muestral. Tenemos una población que sigue un modelo Bernouilli y elegimos
una muestra X1 , X2 , . . . , Xn donde Xi ,→ Be(p) ∀i.
Consideramos la variable aleatoria X =“n0 de éxitos en la muestra”, la cual sigue una
distribución Bi(n, p). Definimos P =“proporción de éxitos en n extracciones”, entonces
X pq
Teorema 10. P = n y se cumple E[P ] = p var[P ] = n
P −E[P ]
Si n es grande, por el T.C.L., σP ,→ N (0, 1)
′
Debemos usar corrección por continuidad ± 0n5
Diferencia de medias muestrales con varianzas conocidas. ..
Teorema 11. Sean X e Y v.a’s sobre dos poblaciones normales e independientes tales
que X ,→ N (µx , σx2 ) e Y ,→ N (µy , σy2 ). Sobre la población de X realizamos un m.a.s.
de tamaño n y sobre Y otro m.a.s. de tamaño m. Entonces
σx2 σy2
X n − Y m ,→ N (µx − µy , x+ )
n m
6 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
(X − Y ) − (µx − µy )
√ 2 ,→ t(n + m − 2)
nsx +ms2y 1 1
n+m−2 ( n + m )
Para suponer que las varianzas poblacionales son iguales, se debe realizar primero un
contraste de igualdad de varianzas.
ns2x ms2y
,→ χ2 (n − 1) y ,→ χ2 (m − 1) (por el Teorema 8)
σx2 σy2
ns2x
/(n − 1) s∗2 2
σx2 x /σx
Entonces ,→ F (n−1, m−1) ó ,→ F (n−1, m−1)
msy2
/(m − 1) s∗2 2
y /σy
σy2
1.1.4. Ejemplos.
Vamos a considerar distintos ejemplos donde deberemos utilizar las distribuciones mues-
trales que acabamos de definir.
C) Se supone que el promedio de los alumnos de Psicologı́a en una prueba de aptitud para
las matemáticas es 12. Se toma una muestra al azar de 10 alumnos y obtenemos una
media muestral de 14’18 y una varianza insesgada muestral de 25. ¿Qué probabilidad
existe de que suponiendo correcto el parámetro 12, aparezcan muestras con promedios
superiores a 14’18? (Suponemos población normal)
X n −µ
Sol. Nos piden P (X 10 ≥ 14′ 18). Teniendo en cuenta que √
s∗n / n
,→ t(n − 1), obtenemos
X n − 12 14′ 18 − 12
P (X 10 ≥ 14′ 18) = 1 − P ( √ < √ ) = 1 − P (t(9) ≤ 1′ 38) = 1 − 0′ 9 = 0′ 1
5/ 10 5/ 10
E) Determinada teorı́a afirma que no existe diferencia en agresividad entre hombres y mu-
jeres. Para comprobarlo tomamos una m.a.s. de 64 hombres y 64 mujeres. Se les pasa
un test sobre agresividad y se obtienen medias muestrales de 34 y 32, respectivamente.
Supongamos que ambas poblaciones siguen distribuciones normales con la misma me-
dia y varianzas 20 y 16, respectivamente. ¿Qué probabilidad existe de que se de una
diferencia mayor ó igual que la encontrada?
Sol. Si consideramos X =“agresividad en los hombres” e Y =“agresividad en las muje-
res”.
Tenemos que X 64 ,→ N (µ, 20/64) e Y 64 ,→ N (µ, 16/64).
Entonces X 64 − Y 64 ,→ N (µ − µ, 20
64 + 16
64 ).
8 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
−2 − 0 X 64 − Y 64 2−0
P (|X 64 −Y 64 | ≥ 34−32) = 1−P (−2 ≤ X 64 −Y 64 ≤ 2) = 1−P ( √ ≤ ′
≤ ′ )=
′
0 5625 0 75 0 75
−2 − 0 X 15 − Y 12 − 0 2−0
P (|X 15 −Y 12 | ≥ 2) = 1−P (−2 ≤ X 15 −Y 12 ≤ 2) = 1−P ( √ ≤ ′
≤ ′ )=
0′ 4284 0 6545 0 6545
G) Con el enunciado del ejemplo (F), ¿cuál serı́a la probabilidad de que el cociente de
varianzas muestrales fuera mayor o igual que el obtenido, siendo n =16 y m = 13?
Sol. Sabemos que
ns2x 16s2n
σx2
/(n − 1) σx2
/(16 − 1)
ms2y
,→ F (n − 1, m − 1). Entonces 13s2m
,→ F (15, 12)
σy2
/(m − 1) σy2
/(13 − 1)
s2
Nos piden P ( s216 ≥ 23′ 2 ). Como las varianzas poblacionales son iguales podemos simpli-
13
ficarlas en la distribución y haciendo operaciones nos quedará:
Problema de estimación cuando, dada una población con una distribución fθ (x), donde
θ es un parámetro desconocido, aventuremos o infiramos en base a los datos muestrales
X1 , X2 , . . . , Xn el valor de θ.
Si al inferir el parámetro damos un único valor estaremos en un problema de estimación
puntual.
Estimación θ̂ será el valor que tomará el estimador al trabajar con la muestra concreta,
y por tanto, será la solución concreta de nuestro problema.
Un estimador es un estadı́stico y, por ello, es una variable aleatoria con una determinada
distribución de probabilidad que denominamos distribución muestral.
Dado un parámetro desconocido podemos plantear varios estimadores; por ejemplo, para
la varianza poblacional (σ 2 ) podemos considerar como estimadores la varianza (s2n ) o la
cuasivarianza (s∗2
n ) muestrales. ¿Cuál será mejor?
Veamos algunas de las propiedades que podemos considerar para elegir los mejores esti-
madores.
c) Eficiencia. Dados dos estimadores de θ, θ̂1 y θ̂2 , decimos que θ̂1 es más eficiente que θ̂2
si var[θ̂1 ] < var[θ̂2 ].
(Algunos autores exigen que el estimador sea insesgado).
var[θ̂1 ]
Para comparar la eficiencia se construye el cociente . Si es mayor que 1, entonces
var[θ̂2 ]
θ̂2 es más eficiente; si es igual a 1, entonces ambos estimadores son igual de eficientes;
si es menor que 1, entonces θ̂1 es más eficiente.
Ejemplo 3. Consideremos como estimadores de σ 2 a s2n y s∗2
n . Calculemos el cociente
de varianzas:
var[s2n ] 2(n − 1)/n2 σ 4 (n − 1)2
∗2
= · 4 = <1
var[sn ] 2/(n − 1) σ n2
• Estimación máximo-verosı́mil. Sea X una variable aleatoria con distribución f (x; θ), don-
de θ es el parámetro desconocido. Sean X1 , X2 , . . . , Xn n v.a’s independientes con la misma
distribución que X; es decir, sea (X1 , X2 , . . . , Xn ) una m.a.s. Bajo estas condiciones, la dis-
tribución conjunta de las variables X1 , X2 , . . . , Xn será igual al producto de las marginales:
Supongamos varios estimadores de θ, (θ̂1 , θ̂2 , etc.). De todos ellos pretendemos elegir el
que haga máxima la función de verosimilitud.
Por tanto, un estimador θ̂ será estimador máximo verosı́mil (EMV) de θ si maximiza la
función de verosimilitud.
Es equivalente maximizar V (θ) o su logaritmo neperiano (por ser una función continua
y creciente) y normalmente será más sencillo trabajar con el logaritmo. Para maximizar
deberemos resolver la siguiente ecuación:
d(ln V (θ))
=0
dθ
En el caso de tener dos ó más parámetros desconocidos, el procedimiento es similar.
Por ejemplo, si tuvieramos una función de verosimilitud de tres parámetros V (θ1 , θ2 , θ3 ),
los estimadores máximo verosı́miles serán los que maximizan la función V (θ1 , θ2 , θ3 ) o su
logaritmo. Dichos estimadores se obtendrán al resolver las ecuaciones siguientes:
1. Son consistentes.
2. Son asintóticamente eficientes (es decir, tienen la varianza mı́nima cuando el tamaño
muestral tiende a infinito).
∑
n ∑
n
ln V (p) = xi ln p + (n − xi ) ln(1 − p)
i=1 i=1
d ln V (p)
Para obtener el EMV de p debemos resolver la ecuación: dp =0
En este caso
d ln V (p) ∑ 1 ∑
n n
(−1)
= xi + (n − xi ) =0
dp p 1−p
i=1 i=1
∑
n ∑
n ∑
n ∑
n ∑
n ∑
n
(1 − p) xi − p(n − xi ) = xi − p xi − np + p xi = xi − np = 0
i=1 i=1 i=1 i=1 i=1 i=1
∑n
xi
Despejando el valor de p obtenemos el estimador EMV(p) = i=1
n = P.
P (θ ∈ [a, b]) = 1 − α
θ̂ − θ
P (|θ̂ − θ| ≤ 2σ) = P (−2σ ≤ θ̂ − θ ≤ 2σ) = P (−2 ≤ ≤ 2) =
σ
= Φ(2) − Φ(−2) = 2Φ(2) − 1 = 0′ 9546
ya que el estimador seguı́a una distribución N (θ, σ 2 ).
P (−2σ ≤ θ̂−θ ≤ 2σ) = P (2σ ≥ −θ̂+θ ≥ −2σ) = P (−2σ+θ̂ ≤ θ ≤ 2σ+θ̂) = P (θ ∈ [θ̂−2σ, θ̂+2σ])
Por tanto, el intervalo de confianza [θ̂ − 2σ, θ̂ + 2σ] tiene un nivel de confianza de 1 − α =
0′ 9546 o un nivel de significación de α = 0′ 0454.
Esto equivale a decir que tenemos la confianza 0’9546 de que, extraı́da una muestra y
calculado el valor de θ̂, éste no se aleja del parámetro más de dos desviaciones tı́picas o un
riesgo de 0’0454 de que se aleja más de esa cantidad.
Dicho de otro modo, si obtenemos una muestra en la que θ̂ está en la zona rayada, el
intervalo no contendrá al parámetro θ.
14 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
Si σ 2 es conocida.
−µ
Ya sabemos que X n√
σ/ n
,→ N (0, 1). Sea z1− α2 el percentil de la distribución normal
tipificada, es decir, Φ(z) = 1 − α2
Xn − µ
P (−z1− α2 ≤ √ ≤ z1− α ) = 1 − α
σ/ n 2
Por tanto, el intervalo de confianza para µ será [X n − z1− α2 √σn , X n + z1− α2 √σn ]
Si σ 2 es desconocida.
X√ n −µ X n −µ
En este caso tenemos que sn / n−1
,→ t(n − 1) o √
s∗n / n
,→ t(n − 1).
Por el mismo razonamiento anterior, si llamamos t1− α2 (n − 1) al percentil de la distri-
bución t de Student tal que P (t(n − 1) ≤ x) = 1 − α2 , el intervalo de confianza para µ
al nivel de significación α (o equivalentemente, al nivel de confianza 1 − α) será:
sn sn
[X n − t1− α2 (n − 1) √ , X n + t1− α2 (n − 1) √ ]
n−1 n−1
s∗ s∗
[X n − t1− α2 (n − 1) √n , X n + t1− α2 (n − 1) √n ]
n n
X −Y m −(µ1 −µ2 )
Si σ12 y σ22 son desconocidas pero iguales, como √n ,→ t(n + m − 2) el
ns2 2
1 +ms2 ( 1 + 1 )
n+m−2 n m
intervalo de confianza será:
√ √
ns21 + ms22 1 1 ns21 + ms22 1 1
[X n −Y m −t1− α2 (n+m−2) ( + ), X n −Y m +t1− α2 (n+m−2) ( + )]
n+m−2 n m n+m−2 n m
a) 1 − α = 0′ 95 =⇒ 1 − α
= 0′ 975 =⇒ z1− α2 = 1′ 96
2 √ √
′ ′ ′ ′
µ1 − µ2 ∈ [12 − 10′ 125 − 1′ 96 1 744 + 1 844 , 12 − 10′ 125 + 1′ 96 1 744 + 1 844 ] =
√
= [1′ 875 − 1′ 96 0′ 3857, 1′ 875 + 1′ 96 · 0′ 621] = [1′ 875 − 1′ 217, 1′ 875 + 1′ 217] = [0′ 658, 3′ 092]
16 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
Como el valor 0 no pertenece a ninguno de los dos intervalos, podemos concluir que las
medias no serán iguales con una confianza del 95 %.
ns2n (n − 1)s∗2
,→ χ2 (n − 1) ó n
,→ χ2 (n − 1)
σ2 σ2
El intervalo de confianza para la varianza poblacional al nivel de confianza 1 − α lo
podemos obtener como sigue:
ns2n
P (χ2α (n − 1) ≤ ≤ χ21− α (n − 1)) = 1 − α
2 σ2 2
Despejando σ 2 tenemos:
ns2n ns2n
P( ≤ σ 2
≤ )=1−α
χ21− α (n − 1) χ2α (n − 1)
2 2
Nota: Si n > 100 podemos suponer normalidad y entonces el intervalo de confianza será:
ns2n ns2n
σ2 ∈ [ √ , √ ]
(n − 1) + z1− α2 2n (n − 1) − z1− α2 2n
19 · 36 19 · 36
σ2 ∈ [ , ′ ] = [18′ 39, 109′ 27]
37′ 2 6 26
1.3. ESTIMACIÓN POR INTERVALOS 17
s∗2 2 ,→ F (n − 1, m − 1)
m /σ2
A partir de aqui deducimos el intervalo de confianza para el cociente de varianzas al nivel de
confianza 1 − α y obtenemos:
Ejemplo 7. Tras pasar una misma prueba de rapidez de cálculo a las dos clases de 20
de ESO de un colegio, la primera de ellas obtuvo una cuasivarianza de 242 segundos2 y en
la segunda, la cuasivarianza fue de 121 segundos2 . Los tamaños muestrales eran 25 y 31
alumnos, respectivamente.
Construir el intervalo de confianza para el cociente de varianzas al 90 %, bajo el supuesto
de que son muestras aleatorias simples de poblaciones normales.
En ambos intervalos observamos que el valor 1 no pertenece. Por tanto, podemos concluir
que las varianzas poblacionales no podrán ser iguales, con un confianza del 90 %.
18 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
Tenemos que acudir a estudios previos o muestras piloto para estimar σ, y la magnitud
mı́nima de la muestra en este último caso ha de ser de 100 para que la distribución siga
la ley normal.
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 19
Sol. 1 − α = 0′ 95 =⇒ 1 − α
2 = 0′ 975 =⇒ z0′ 975 = 1′ 96
σ 2 2
a) n = (z1− α2 ) = (1′ 96 · ′ )2 = (7′ 84)2 = 61′ 4656 ≈ 62
E 05
σ 2 2
b) En este caso, n = (z1− α2 ) = (1′ 96 · )2 = (3′ 92)2 = 15′ 3664 ≈ 16
E 1
Como ejemplos, tenemos situaciones a las que es aplicable y trata de dar sentido esta
metodologı́a:
Un psicólogo seleccionó 80 ratas para recorrer un laberinto recién diseñado. Todas las
ratas llegaron a aprender el recorrido, pero el número de ensayos promedio para llegar
a un rendimiento óptimo en la tarea fue de 17. Una larga experiencia con la población
de ratas del mismo tipo, recorriendo un modelo de laberinto distinto le dice que la
media de ensayos es de 15, con una desviación tı́pica de 2. Esto le lleva a plantearse la
pregunta: ¿es más difı́cil para las ratas el nuevo laberinto?
El problema del contraste de hipótesis consiste básicamente en comprobar o decidir la
veracidad de una hipótesis estadı́stica, llamada H0 , que formulamos sobre la distribución de
una población. La proposición que formulamos puede referirse al tipo de distribución o a los
parámetros de la distribución. En el primer caso, el contraste se resuelve con los denominados
contrastes no paramétricos. El segundo caso es el que vamos a estudiar en este apartado.
La solución del problema se basará en los datos muestrales y la base estadı́stica (proba-
bilı́stica) de la que arrancará el contraste será la distribución muestral de algún estadı́stico.
Si con los datos muestrales obtenemos un valor para T tal que pertenezca a una deter-
minada región del campo de variación de T , optaremos por aceptar la hipótesis, y en caso
contrario por rechazarla. Obviamente, la clave del problema está en determinar qué región
del campo de variación de T consideraremos para aceptar la hipótesis. Esto se resolverá por
un criterio probabilı́stico a partir de la distribución muestral de T .
Región crı́tica. Será aquella región del campo de variación del estadı́stico tal que si
contiene al valor obtenido del mismo nos llevará a rechazar la hipótesis. La designaremos
por R1 .
Región de aceptación. Es la región complementaria de la anterior. Si el valor obtenido
del estadı́stico pertenece a ella, no rechazaremos la hipótesis. La designaremos por R0 .
Tipos de hipótesis. Llamaremos hipótesis estadı́stica a una suposición que determina,
parcial o totalmente, la distribución de probabilidad de una o varias variables aleatorias.
Estas hipótesis pueden clasificarse, según que:
1. Especifiquen un valor concreto o un intervalo para los parámetros de una variable
aleatoria. (La media de una población normal es 29).
2. Establezcan la igualdad de las distribuciones de dos o más variables (poblaciones).
(Las medias de dos poblaciones normales con igual varianza son idénticas).
3. Determinen la forma de la distribución de la variable. (La distribución de la po-
blación sigue modelo Poisson).
Aunque la metodologı́a para realizar el contraste es análoga en los tres casos, es impor-
tante distinguir entre ellos porque:
1. La contrastación de una hipótesis respecto a un parámetro está muy relaciona-
da con la construcción de intervalos de confianza, y tiene, frecuentemente, una
respuesta satisfactoria en términos de estimación (es lo que estudiaremos en este
capı́tulo).
2. La comparación de dos ó más poblaciones, requiere, en general, de un diseño
experimental que asegure la homogeneidad de las comparaciones.
3. Un contraste sobre la forma de la distribución es un contraste no paramétrico
que debe realizarse dentro de la fase de validación del modelo. (Los contrastes no
paramétricos se estudiarán en los capı́tulos 11 y 12).
En el caso (1), llamaremos hipótesis simple a aquella que especifica un único valor para
el parámetro (ej. µ = 29),
e hipotesis compuesta a la que especifica un intervalo de valores (ej. µ ≤ 30, ρxy ̸= 0)
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 21
A pesar de que un estudio riguroso del problema de contraste exigirı́a considerar los dos
tipos de error, y diseñar un procedimiento que redujera al máximo la probabilidad de cometer
tanto uno como otro, aquı́ vamos a considerar únicamente el error tipo I y su probabilidad. Es
decir, nos vamos a centrar en el error consistente en rechazar una hipótesis que, sin embargo,
es cierta.
P (T ∈
/ R0 /θ = θ0 ) = α
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 23
P (T ∈
/ R0 /θ = θ0 ) = α ≡ P (T ∈ R0 /θ = θ0 ) = 1 − α
Si en la construcción del intervalo de confianza nos interesaba que la amplitud del inter-
valo fuera la menor posible para disponer de estimaciones más precisas, aquı́ nos interesa que
los intervalos externos (región crı́tica o de rechazo), ] − ∞, a] y [b, +∞[, sean lo más grande
posible para poner más difı́cil la aceptación de la hipótesis. Y si la región crı́tica debe ser
la mayor posible, la de aceptación, ]a, b[, deberá ser la menor posible. En el caso de distri-
buciones simétricas y unimodales, el intervalo de menor amplitud y mayor densidad media
de probabilidad, de todos los intervalos que cumplen que P (T ∈ I) = 1 − α, es el intervalo
centrado en la media.
Una vez determinadas las regiones crı́tica y de aceptación ( una vez determinados a y
b), el contraste se realiza de la manera siguiente: si con los datos muestrales, el valor del
estadı́stico T es tal que
• T ∈]a,
/ b[ entonces rechazamos hipótesis nula.
• T ∈]a, b[ entonces aceptamos hipótesis nula.
cuando nos interese saber si podemos considerar que θ = θ0 y nos vaya a reportar las
mismas, o aún mejores consecuencias el que θ < θ0 , nos interesará hacer el contraste
}
H0 : θ = θ0
H1 : θ > θ 0
cuando nos interese saber si podemos considerar que θ = θ0 y nos vaya a reportar las
mismas, o aún mejores consecuencias el que θ > θ0 , nos interesará hacer el contraste
}
H0 : θ = θ0
H1 : θ < θ 0
En estos dos nuevos casos, la base teórica para la decisión de aceptación o rechazo de H0
será la misma que en el caso ya estudiado de H0 : θ = θ0 frente a H1 : θ ̸= θ0 . Pero va a
diferir la construcción de la región crı́tica y la región de aceptación.
Dado un nivel de significación prefijado, trabajaremos con la distribución muestral de un
estadı́stico adecuado T , cuya distribución dependa del parámetro sujeto a contraste, para
determinar la región crı́tica y de aceptación. Como en el caso ya estudiado, la región de
24 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
que los datos muestrales caigan en la región crı́tica R1 nos lleva a considerar más verosı́mil
H1 y, evidentemente, sólo es más verosı́mil H1 frente a H0 si los datos muestrales difieren
significativamente por exceso de la zona central. Esta argumentación nos conduce a que
diseñemos una región crı́tica de “una sola cola” (cola de la derecha). Ası́, por ejemplo, ante
un contraste para la media poblacional en una población normal con varianza poblacional
conocida: }
H0 : µ = µ 0
H1 : µ > µ 0
X n − µ0
si T = √ > z1−α =⇒ rechazamos H0
σ/ n
X n − µ0
si T = √ < z1−α =⇒ aceptamos H0
σ/ n
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 25
Una región crı́tica es la mejor o más potente si, para un α dado, su potencia es mayor
que la de cualquier otra región crı́tica asociada a esa probabilidad α.
a) La región crı́tica es X ≥ ls /P (X ≥ ls ) = 0′ 1.
Bajo H0 : µ = 20 tenemos
ls −20
P (X ≥ ls ) = 0′ 1 ⇒ 1 − 0′ 1 = 0′ 9 = P (X ≤ ls ) = P (Z ≤ 3 ) = Φ(1′ 28) ⇒
ls −20
⇒ 3 = 1′ 28 ⇒ ls = 23′ 84
Bajo H1 : µ = 23 tenemos
23′ 84−23
P (X ≥ 23′ 84) = 1 − P (Z ≤ 3 ) = 1 − Φ(0′ 28) = 1 − 0′ 6103 = 0′ 3897 = 1 − β
b) La región crı́tica es X ≤ li /P (X ≤ li ) = 0′ 1.
Bajo H0 : µ = 20 tenemos
P (X ≤ li ) = Φ( li −20 ′
3 )=01⇒
li −20
3 = −1′ 28 ⇒ li = 16′ 16
Bajo H1 : µ = 23 tenemos
′
P (X ≥ 16′ 16) = 1 − Φ( 16 16−23
3 ) = 1 − Φ(−2′ 28) = 1 − 1 + 0′ 9887 = 0′ 9887 = β
c) La región crı́tica es
X ≤ li y X ≥ ls /P (X ≤ li ) + P (X ≥ ls ) = 0′ 1 ⇒ P (X ≤ li ) = P (X ≥ ls ) = 0′ 05
Bajo H0 : µ = 20 tenemos
26 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
P (X ≥ ls ) = 0′ 05 ⇒ P (X ≤ ls ) = 1 − 0′ 05 = 0′ 95 ⇒ Φ( ls −20 ′ ′
3 ) = 0 95 = Φ(1 645) ⇒
ls −20
⇒ 3 = 1′ 645 ⇒ ls = 24′ 935
P (X ≤ li ) = 0′ 05 ⇒ Φ( li −20 ′ ′ ′
3 ) = 0 05 = Φ(−1 645) ⇒ li = 15 065
Bajo H1 : µ = 23 tenemos
′ ′
P (15′ 065 ≤ X ≤ 24′ 935) = Φ( 24 935−23
3 ) − Φ( 15 065−23
3 ) = Φ(0′ 65) − Φ(−2′ 65) =
= 0′ 7422 − 1 + 0′ 9960 = 0′ 7382 = β
Por tanto, para α = 0′ 1, la primera región es la más potente entre las tres. (Figura (1))
(z1−α − zβ )2 2
n= ·σ
(µ1 − µ0 )2
Ejemplo 3. Supongamos que X ,→ N (µ, 162 ). Vamos a calcular el tamaño muestral necesario
para realizar un contraste con un nivel de significación α = 0′ 05 y dos valores distintos de β
(β = 0′ 2 y β = 0′ 07).
Ejemplo 4. Sea X ,→ N (µ, 100). Consideramos una m.a.s. de tamaño n = 100 de la que
X 100 = 28 y el nivel de significación α = 0′ 05. Supongamos que nos piden contrastar:
H0 : µ = 23 frente a H1 : µ ̸= 23
X n − µ0
T = √ ,→ N (0, 1)
σ/ n
28−23
√
Sustituyendo los valores obtenemos T = 10/ 100
=5
Vamos a considerar los siguientes contrastes paramétricos con sus correspondientes es-
tadı́sticos, suponiendo que la población es normal o que trabajamos con muestra grande:
X n −µ
a) con σ 2 conocida, H0 : µ = µ0 T = σ/ n
√ 0 ,→ N (0, 1)
X n√−µ0
b) con σ 2 desconocida, H0 : µ = µ0 T = sn / n−1
,→ t(n − 1)
28 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
X n − Y n − D0
H0 : µx − µy = D0 T = √ ,→ N (0, 1)
σx2 σy2
n + m
X n − Y n − D0
H0 : µx − µy = D0 T =√ 2 ,→ t(n + m − 2)
nsn +ms2m 1 1
n+m−2 n ( + m )
D − d0
con varianza de las diferencias conocida H0 : µx −µy = d0 T = σD ,→ N (0, 1)
√
n
D − d0
con varianza de las diferencias desconocida H0 : µx −µy = d0 T = ,→ t(n−1)
√sD
n−1
ns2n
f) para la varianza, H0 : σ 2 = σ02 T = σ02
,→ χ2 (n − 1)
s∗2
g) para la igualdad de varianzas, H0 : σx2 = σy2 T = x
s∗2
,→ F (n − 1, m − 1)
y
donde vc es el valor crı́tico que buscaremos según la distribución que siga el estadı́stico y
el nivel de significación correspondiente.
Ejemplo 4. Vamos a ver a continuación un ejemplo de cada uno de los contrastes pa-
ramétricos que hemos planteado anteriormente.
4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = −3′ 2 ∈]
/ − 1′ 746, +∞[ entonces rechazamos la hipótesis nula µ ≥ 175
5. Nivel crı́tico:
α̂ = P (T ≤ −3′ 2) = 1 − P (T ≤ 3′ 2) = (interpolando) = 1 − 0′ 996 = 0′ 004
6. Intervalo de confianza:
µ ∈ [171 − 2′ 12 √516 , 171 + 2′ 65] = [168′ 35, 173′ 65] siendo 2′ 12 = t0′ 975 (16)
Como se ve, el valor 175 no pertence al intervalo de confianza.
niños niñas
tamaño n=318 m=197
media 36 37
σ2 12 13
α
1− = 0′ 975 =⇒ z1− α2 = z0′ 975 = 1′ 96 Es decir, R0 =] − 1′ 96, 1′ 96[
2
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 31
4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = −3′ 105 ∈]
/ − 1′ 96, 1′ 96[ entonces rechazamos la hipótesis nula µx = µy
5. Nivel crı́tico:
α̂ = 2 · P (T ≥ | − 3′ 105|) = 2(1 − P (T ≤ 3′ 105)) = 2(1 − 0′ 999) = 0′ 002
6. Intervalo de confianza:
√
µx − µy ∈ [36 − 37 − 1′ 96 12
318 + 197 , −1
13
+ 1′ 96 · 0′ 3221] =
= [−1 − 0′ 6313, −1 + 0′ 6313] = [−1′ 6313, −0′ 3687]
Como podemos observar, el valor cero no pertenece al intervalo. Por tanto, el ser de
distinto sexo tiene repercusión en los resultados.
x̄ sn−1 = s∗ tamaño
Psicologı́a 6’6 1’5 61
Informática 6’2 1’8 121
¿Hay evidencia para afirmar que los alumnos de ambas titulaciones tienen la misma
nota media?
Sol. Como ambos tamaños muestrales son mayores de 30 podemos suponer normalidad.
No tenemos información sobre las varianzas poblacionales; por tanto vamos a contrastar
primero si podemos suponerlas iguales (para poder realizar después el contraste sobre
las medias).
Como la muestra de Informática tiene mayor varianza muestral, esa será la población
X y n = 121 y m = 61.
}
H0 : σx2 = σy2
1.
H1 : σx2 > σy2
s∗2 3′ 24
2. T = x
s∗2
,→ F (n − 1, m − 1) =⇒ T = 2′ 25 = 1′ 44
y
4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = 1′ 44, para valores de α ≤ 0′ 05, T ∈ R0 y, por tanto, aceptamos la
hipótesis de igualdad de varianzas.
4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = −1′ 4932 ∈] − 1′ 972, 1′ 972[ entonces aceptamos la hipótesis nula de
que las medias poblacionales son iguales (µx = µy ).
5. Nivel crı́tico:
α̂ = 2 · P (T ≥ | − 1′ 4932|) = 2(1 − P (T ≤ 1′ 4932)) = (interpol) = 2(1 − 0′ 93) = 0′ 14
6. Intervalo de confianza:
µx − µy ∈ [6′ 2 − 6′ 6 − 1′ 972 · 0′ 2679, −0′ 4 + 0′ 5283] = [−0′ 9283, 0′ 1283]
Notemos que el intervalo contiene al cero. Por tanto, se acepta la hipótesis de que los
alumnos tienen la misma nota media.
X1i 5 14 17 18 23
X2i 8 18 14 20 25
Sol. Tenemos hipótesis sobre la diferencia de medias con varianza poblacional descono-
cida en muestras relacionadas. Nos hará falta calcular el valor de las diferencias para
cada par de valores (Di ), ası́ como la media y varianza de esa variable (D̄ y s2D )
Di -3 -4 3 -2 -2 -8
Di − D̄ -1’4 -2’4 4’6 -0’4 -0’4 0
(Di − D̄)2 1’96 5’76 21’16 0’16 0’16 29’2
4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = −1′ 3242 ∈] − 2′ 132, +∞[ entonces aceptamos la hipótesis nula de que
las medias poblacionales son iguales (µ1 − µ2 = D = 0).
5. Nivel crı́tico:
α̂ = P (T ≤ −1′ 3242) = 1 − P (T ≤ 1′ 3242)
Como t0′ 85 (4) = 1′ 19 y t0′ 90 (4) = 1′ 53 podemos afirmar que
1 − 0′ 9 = 0′ 1 < α̂ < 0′ 15 = 1 − 0′ 85
6. Intervalo de confianza:
′
µ1 − µ2 = D ∈ [−1′ 6 − 2′ 776 2 √
4166
4
, −1′ 6 + 3′ 3542] = [−4′ 954, 1′ 754]
siendo 2′ 776 = t0′ 975 (4)
Como podemos ver, el intervalo contiene al cero (por tanto, se acepta la hipótesis de
que no hay diferencias en el rendimiento escolar).
α
= 0′ 025 =⇒ χ2α (n − 1) = χ20′ 025 (60) = 40′ 5
2 2
α
1− = 0′ 975 =⇒ χ21− α (n − 1) = χ20′ 975 (60) = 83′ 3
2 2
G) Contrastar la hipótesis de que dos poblaciones tienen la misma dispersión con un nivel
de significación del 1 %. Sabemos que la desviación tı́pica de una muestra de tamaño
25 realizada sobre la primera población es 12 y que en una muestra de tamaño 31 de
la segunda población, la desviación tı́pica es 7. Considerar que ambas poblaciones son
normales.
Sol. Teniendo en cuenta que es un contraste de igualdad de varianzas, consideramos
como población X la que tiene mayor varianza muestral. Tenemos n = 25 y m = 31.
La cuasivarianza de la población X es s∗2
x =
n
n−1 · s2x = 25
24 · 144 = 150.
La cuasivarianza de la población Y es s∗2
y =
m
m−1 · s2y = 31
30 · 49 = 50′ 6333.
Siguiendo el guión tenemos:
}
H0 : σx2 = σy2
1.
H1 : σx2 > σy2
s∗2
2. T = x
s∗2
,→ F (n − 1, m − 1) =⇒ T = 150
50′ 6333 = 2′ 9625
y
1−α = 0′ 99 =⇒ F1−α (n−1, m−1) = F0′ 99 (24, 30) = 2′ 4689 Es decir, R0 = [0, 2′ 4689[
4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = 2′ 9625 ∈
/ [0, 2′ 4689[ entonces rechazamos la hipótesis nula σx2 = σy2
5. Nivel crı́tico:
α̂ = P (T > 2′ 9625) = 1 − P (T ≤ 2′ 9625) < 1 − 0′ 995 = 0′ 005
ya que F0′ 995 (24, 30) = 2′ 73
6. Intervalo de confianza:
σx2
σy2
∈ [ 50150
′ 63 ·
1 150
F0′ 995 (24,30) , 50′ 63 · 1
F0′ 005 (24,30) ] ′ 63 ·
= [ 50150 1 150
2′ 73 , 50′ 63 · 2′ 87] = [1′ 08, 8′ 5]
Como se ve, el 1 no pertenece al intervalo (por tanto, las varianzas no podemos supo-
nerlas iguales).
36 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
Capı́tulo 2
2.1. Introducción.
El análisis de la varianza podemos considerarlo como una extensión de la diferencia de
medias a situaciones en las que existen más de dos grupos.
Veamos primero un ejemplo del tipo de problemas que resolveremos en este tema.
Método M1 6 7 5 6 5 8 4 7
Método M2 10 9 9 10 10 6
Método M3 3 4 8 3 7 6 3 6 4 7 6 3
La pregunta que le interesa al investigador es: ¿Son los tres métodos igual de eficaces?.
(Lo resolveremos al final del capı́tulo)
37
38 CAPÍTULO 2. ANÁLISIS DE VARIANZA. MODELO DE UN FACTOR
DEF. Llamamos factor a la variable independiente (categórica) que determina los grupos
que estamos comparando.
DEF. Llamamos variable respuesta a la variable dependiente (cuantitativa) que medimos
u observamos en cada sujeto.
DEF. Llamaremos niveles del factor a los diferentes valores que toma. También se les
denomina tratamientos.
A pesar de que los modelos de ANOVA son muy variados, puede obtenerse una clasificación
bastante simple atendiendo a los siguientes criterios:
a) Si cada sujeto, uno a uno, es asignado al azar a cada uno de los niveles del factor,
hablamos de ANOVA completamente aleatorizado. (Este tipo de diseño con un solo
factor, lo estudiaremos en este capı́tulo. Cuando tengamos dos factores, lo veremos
en el capı́tulo 10)
b) Si sospechamos que alguna variable extraña puede alterar las conclusiones del
experimento, podemos ejercer sobre ella un control directo formando lo que se
denominan bloques. El número de bloques es arbitrario (puede oscilar entre un
mı́nimo de dos y un máximo de N/J, siendo N el tamaño total de la muestra y J
el número de niveles del factor). El ANOVA se denomina aleatorizado en bloques.
c) Un caso extremo de bloqueo es aquel en el que cada bloque está formado por un
único sujeto y a todos y cada uno de los sujetos se les aplican todos y cada uno de
los niveles de la variable independiente. Es lo que se denomina diseño intrasujeto,
y el ANOVA que permite analizar los datos obtenidos con este tipo de diseño se
denomina ANOVA de medidas repetidas.
(Estos dos últimos tipos de diseño se resuelven de la misma manera y los estudia-
remos en el capı́tulo 9)
3. Tipo de muestreo efectuado sobre los niveles de los factores. Un factor es, en general,
una variable controlada por el propio experimentador. Sus valores o niveles podrán ser
muchos o pocos, y se pueden establecer de dos formas diferentes:
a) fijando sólo aquellos niveles del factor que realmente estamos interesados en es-
tudiar. Entonces el modelo de ANOVA es de efectos fijos o sistemático. (Son los
únicos que vamos a estudiar en este curso)
b) seleccionando aleatoriamente un conjunto de niveles de entre todos los posibles
niveles del factor. Entonces el modelo de ANOVA es de efectos aleatorios.
2.2. ANOVA DE UN FACTOR COMPLETAMENTE ALEATORIZADO. 39
Los utilizados con mayor frecuencia en la investigación psicológica son los de efectos
fijos, pero existen situaciones concretas donde resultará más apropiado recurrir a un
modelo de efectos aleatorios. Veamos un ejemplo:
Es posible que la eficacia de un determinada terapia venga condicionada por las ca-
racterı́sticas personales del terapeuta que la aplica. (No porque haya caracterı́sticas
conocidas que determinen tal efecto sino, simplemente, porque distintos terapeutas
obtienen resultados diferentes). Podemos seleccionar aleatoriamente unos pocos te-
rapeutas (no necesitamos seleccionarlos a todos) y asignar una muestra aleatoria de
pacientes a cada uno de ellos. Los resultados del experimento nos informarán de si
la variable “tipo de terapeuta” se relaciona con los resultados de la terapia.
a) Normalidad. Las variables en cada nivel (columna) siguen una distribución normal con
media µj .
Es decir, todas las muestras proceden de poblaciones con la misma varianza, pero desco-
nocemos, en principio, si las medias serán todas iguales. Esto es precisamente lo que queremos
contrastar.
La expresión del modelo de ANOVA con un factor fijo, completamente aleatorizado es:
Yij = µ + αj + Eij
1 ∑∑
J nj
µ̂ = Ȳ.. = Yij
N
j=1 i=1
1 ∑
nj
¯
µ̂j = Y.j = Yij
nj
i=1
1 ∑∑
J nj
s∗2 = (Yij − Ȳ.. )2
N −1
j=1 i=1
∑
J ∑
nj
∑
J ∑
nj
∑
J
(Yij − Ȳ.. ) =
2
(Yij − Ȳ.j )2 + nj (Ȳ.j − Ȳ.. )2
j=1 i=1 j=1 i=1 j=1
| {z } | {z } | {z }
Q1 =SCT Q2 =SCR Q3 =SCE
2.3. ESTIMADORES DE LOS PARÁMETROS Y ESTADÍSTICO DE CONTRASTE. 41
el primer término de la suma mide la variabilidad dentro de los niveles del factor, es
decir, la variabilidad no explicada por el factor. Lo denominamos Suma de Cuadrados
Residual o intragrupos, SCR. Representa la variabilidad de las puntuaciones de cada
muestra respecto a su propia media.
el segundo sumando mide la variabilidad entre los niveles del factor, es decir, la varia-
bilidad explicada por el factor. Lo denominaremos Suma de Cuadrados Entregrupos,
SCE. Representa la variabilidad de las medias de los grupos respecto a la media total.
DEF: Definimos media cuadrática como la suma de cuadrados dividida por sus correspon-
dientes grados de libertad. Obtenemos tres medias cuadráticas:
SCT
Media cuadrática total M CT =
N −1
SCR
Media cuadrática residual M CR =
N −J
SCE
Media cuadrática entregrupos M CE =
J −1
siendo F1−α (J − 1, N − J) el valor crı́tico de una F de Snedecor que deja por debajo un área
de probabilidad 1 − α.
Si la varianza entregrupos es significativamente mayor que la varianza del error (residual)
se admite que hay diferencia entre los grupos, de lo contrario, se acepta la hipótesis nula.
El que sea significativamente mayor o no, se determina por la F , según que ésta sea o no
significativa.
∑
J
1 ∑
nj
1 ∑∑
J nj
SCE = ( Yij ) − (
2
Yij )2 = c − b
nj N
j=1 i=1 j=1 i=1
∑
J ∑
nj
∑
J
1 ∑
nj
SCR = SCT − SCE = Yij2 − ( Yij )2 = a − c
nj
j=1 i=1 j=1 i=1
Por tanto, solo nos hace falta calcular tres cantidades: la suma de todos los cuadrados
(para calcular a), el cuadrado de la suma de todo (para calcular b) y la suma de los cuadrados
de la suma de las columnas (para calcular c).
La tabla resumen del ANOVA con un factor fijo, completamente aleatorizado es la si-
guiente:
Total SCT N −1
Condición de medida. Los datos deben estar medidos, al menos, en escala de intervalo.
Normalidad. Las observaciones de cada tratamiento o grupo deben constituir una mues-
tra aleatoria extraı́da de una población normal. Es recomendable trabajar con tamaños
muestrales moderadamente grandes para garantizar, incluso en las poblaciones que se
alejan de la normalidad, un comportamiento aceptable del estadı́stico F . También se
puede contrastar la hipótesis de normalidad con una prueba de bondad de ajuste.
Referente a las pruebas de homocedasticidad sólo veremos la de Bartlett, pero saber que
las de Cochran y Hartley necesitan diseños balanceados.
1 ∑
nj
s∗2 = (Yij − Ȳ.j )2
j
nj − 1
i=1
Definimos:
∑J
j=1 (nj − 1)s∗2 ∑
J
′
(nj − 1)logs∗2
j
C = 2 3026[(N − J)log − j ]
N −J
j=1
44 CAPÍTULO 2. ANÁLISIS DE VARIANZA. MODELO DE UN FACTOR
1 ∑
J
1 1
A=1+ [ ( )− ]
3(J − 1) nj − 1 N −J
j=1
El estadı́stico de contraste es
C
B=
A
que sigue una distribución χ2 (J − 1) cuando H0 es cierta.
NOTA: Si C < χ21−α (J − 1), no es necesario calcular A puesto que A es siempre mayor
que 1 y, por tanto, se cumplirá que B < χ21−α (J − 1) y aceptaremos que las varianzas son
iguales.
• Estadı́stico de contraste:
|Ȳ.j − Ȳ.l |
S=√
M CR( n1j + 1
nl )
S2
• Distribución muestral: J−1 → F (J − 1, N − J)
√
• Región crı́tica: R1 = {S tales que S ≥ (J − 1)F1−α (J − 1, N − J)}
2.7. COMPARACIONES MÚLTIPLES. 45
Los datos y operaciones previas necesarias los podemos disponer en forma de tabla:
Método A Método B Método C
6 36 10 100 3 9
7 49 9 81 4 16
5 25 9 81 8 64
6 36 10 100 3 9
5 25 10 100 7 49
8 64 6 36 6 36
4 16 3 9
7 49 6 36
4 16
7 49
6 36
3 9
48 300 54 498 60 338
• Primero comprobamos la hipótesis de homocedasticidad con la Prueba de Bartlett-Box.
12 12 38
s∗2
1 = = 1′ 7142 s∗2
2 = = 2′ 4 s∗2
3 = = 3′ 45
7 5 11
log s∗2 ′
1 = 0 2341 log s∗2 ′
2 = 0 3802 log s∗2 ′
3 = 0 5384
El estadı́stico de la prueba es B= C
A ,→ χ2 (J − 1)
Calculamos primero C.
7 12 12 38
7 + 5 5 + 11 11
C = 2′ 3026[(26 − 3) log − (7 · 0′ 2341 + 5 · 0′ 3802 + 11 · 0′ 584)] =
23
= 2′ 3026[23 · log 2′ 6956 − 9′ 4621] = 2′ 3026 · 0′ 4432 = 1′ 0205
Tomamos α = 0′ 01. La región crı́tica es: R1 = [χ21−α (J − 1), +∞[
Por tanto, el valor crı́tico será: χ0′ 99 (2) = 9′ 21
2
H0 : µ1 = µ2 = µ3 H1 : no H0
∑
J ∑
nj
1 ∑∑
J nj
(48 + 54 + 60)2
a= Yij2 = 300+498+338 = 1136 b= ( Yij )2 = = 1009′ 3846
N 26
j=1 i=1 j=1 i=1
∑
J
1 ∑
nj
482 542 602 165888 + 279936 + 172800
c= ( Yij )2 = + + = = 1074
nj 8 6 12 576
j=1 i=1
Tabla ANOVA:
• Como hemos rechazado la hipótesis nula, vamos a aplicar el Método de Scheffé para ver
qué medias son las que difieren.
2.7. COMPARACIONES MÚLTIPLES. 47
a) H0 : µ1 = µ2 frente a H1 : µ1 ̸= µ2
|Ȳ.j − Ȳ.l | |6 − 9|
S=√ =⇒ S12 = √ = 3′ 383
M CR( n1j 1
+ nl ) ′ 1 1
2 696( 8 + 6 )
√ √
(J − 1)F1−α = 2 · 5′ 6637 = 3′ 366
Como S12 = 3′ 383 > 3′ 366 rechazamos H0 y concluimos que los métodos A y B no
son igual de eficaces.
b) H0 : µ1 = µ3 frente a H1 : µ1 ̸= µ3
|6 − 5|
S13 = √ = 1′ 3343
2′ 696( 18 + 1
12 )
√ √
(J − 1)F1−α = 2 · 5′ 6637 = 3′ 366
Como S13 = 1′ 3343 < 3′ 366 aceptamos H0 y concluimos que los métodos A y C son
igual de eficaces.
c) H0 : µ2 = µ3 frente a H1 : µ2 ̸= µ3
|9 − 5|
S23 = √ = 4′ 872
2′ 696( 16 + 1
12 )
√ √
(J − 1)F1−α = 2 · 5′ 6637 = 3′ 366
Como S23 = 4′ 872 > 3′ 366 rechazamos H0 y concluimos que los métodos B y C no
son igual de eficaces.
Por tanto, como el método B tiene la media más alta y hemos visto que es significativa-
mente diferente del A y del C, concluimos que interesará aplicar el método B.
En un diseño de efectos fijos, los niveles del factor se fijan con base en el interés del experimentador, y el análisis se enfoca en comprobar si existen diferencias significativas entre estos niveles. En cambio, en un diseño de efectos aleatorios, los niveles se seleccionan aleatoriamente de todos los posibles niveles del factor, y el análisis se dirige a evaluar si la variabilidad entre los niveles aleatorios es significativa respecto a la variabilidad general .
Un contraste unilateral a izquierda implica que la hipótesis alternativa sugiere que el parámetro poblacional es menor que el valor de la hipótesis nula. El estadístico de contraste T se calculará como T = (X̄ - µ0)/(s/√n), donde s es la desviación típica muestral. La región de aceptación será R0 = ]-t1-α(n-1), +∞[. Si T no pertenece a R0, se rechaza H0. Este enfoque es apto para muestras pequeñas y utiliza la distribución t de Student .
El error tipo I ocurre cuando se rechaza una hipótesis nula que es cierta. La probabilidad de cometer un error tipo I se denomina nivel de significación del contraste, representado por α. Es la probabilidad de que, siendo cierta la hipótesis nula H0, el valor del estadístico caiga en la región crítica .
Es apropiado aplicar un modelo de ANOVA de efectos fijos cuando los niveles del factor son de interés específico para el investigador y se quiere evaluar si estos niveles tienen diferentes efectos sobre la variable dependiente. Se utiliza principalmente cuando se quiere analizar todos los niveles considerados relevantes para el estudio .
Aumentar el tamaño de la muestra disminuye la probabilidad de cometer un error tipo II, lo que resulta en contrastes más potentes. Esto se debe a que un mayor tamaño de muestra permite una mejor estimación de los parámetros poblacionales, reduciendo la incertidumbre y aumentando la capacidad del test para detectar efectos reales .
La prueba de Bartlett evalúa la homocedasticidad al verificar si las varianzas dentro de los niveles del factor son iguales. Calcula un estadístico de prueba B a partir de las cuasivarianzas en cada nivel y lo compara con un valor crítico de χ²(J-1). La hipótesis nula de igualdad de varianzas se acepta si B es menor que el valor crítico, y se rechaza indicando heterocedasticidad .
Se calcula un intervalo de confianza para el parámetro de interés. Si el valor de la hipótesis nula se encuentra dentro del intervalo, se acepta la hipótesis nula. Si el valor de la hipótesis nula no se halla dentro del intervalo, se rechaza la hipótesis nula. Este enfoque aprovecha la relación entre los intervalos de confianza y las regiones de aceptación para decidir sobre la hipótesis .
Las comparaciones múltiples proporcionan información sobre qué niveles específicos del factor son responsables de las diferencias significativas observadas. Después de un ANOVA significativo, indican las parejas de medias que difieren significativamente, ayudando a identificar los tratamientos o niveles del factor con mayor efectividad sobre la variable respuesta .
La homocedasticidad, o igualdad de varianzas entre grupos, es una suposición clave en ANOVA de un factor completamente aleatorizado. Se asume que todas las muestras provienen de poblaciones con la misma varianza (σ²), pero no se sabe a priori si las medias son iguales. Esta suposición permite descomponer la variabilidad total en variabilidad entre niveles del factor y dentro de los niveles .
En un contraste de hipótesis bilateral, se determina la región crítica considerando la distribución del estadístico de prueba bajo la hipótesis nula. La región de aceptación es R0 = ]-z1-α/2, z1-α/2[, basándose en el nivel de significación α y la distribución N(0,1) del estadístico. Si el estadístico T no cae dentro de esta región, se rechaza la hipótesis nula .