0% encontró este documento útil (0 votos)
8 vistas47 páginas

Inferencia y Contraste de Hip Otesis: Cap Itulo 1

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Temas abordados

  • Técnicas Estadísticas,
  • Errores Tipo I y II,
  • Distribución Normal,
  • Pruebas de Homocedasticidad,
  • Muestreo Aleatorio,
  • Variables Aleatorias,
  • Distribución Chi-Cuadrado,
  • Media Cuadrática,
  • ANOVA,
  • Intervalos de Confianza
0% encontró este documento útil (0 votos)
8 vistas47 páginas

Inferencia y Contraste de Hip Otesis: Cap Itulo 1

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Temas abordados

  • Técnicas Estadísticas,
  • Errores Tipo I y II,
  • Distribución Normal,
  • Pruebas de Homocedasticidad,
  • Muestreo Aleatorio,
  • Variables Aleatorias,
  • Distribución Chi-Cuadrado,
  • Media Cuadrática,
  • ANOVA,
  • Intervalos de Confianza

Capı́tulo 1

Inferencia y contraste de hipótesis

1.1. Introducción a la Inferencia Estadı́stica


1.1.1. Población y muestra. Tipos de muestreo.
Inferir es, en general, establecer un nuevo conocimiento a partir de uno ya dado. La Infe-
rencia Estadı́stica va a ser una forma especial de realizar este proceso. Consiste, básicamente,
en determinar algunas caracterı́sticas desconocidas de una población a partir de datos mues-
trales conocidos. Estas caracterı́sticas serán “inferidas” utilizando recursos de la Teorı́a de la
Probabilidad. Principalmente, la Inferencia Estadı́stica consiste en la resolución de dos tipos
de problemas:

1. Estimación: consiste en determinar el valor de una caracterı́stica poblacional descono-


cida. Podra ser:

puntual (determina el valor concreto)


por intervalo (determina un intervalo en el que quede incluido el valor de la carac-
terı́stica con cierto grado de probabilidad)

2. Contraste de hipótesis: consiste en determinar si es aceptable, a partir de los datos


muestrales, que la caracterı́stica estudiada tome un valor determinado o pertenezca a
un intervalo concreto. Serán los denominados contrastes paramétricos.

Vamos a dar algunas definiciones de conceptos necesarios para el desarrollo de estos temas.

Población: colectivo sujeto del estudio. Cabe distinguir entre población (colectivo en el que
estamos considerando la magnitud sujeta a estudio) y universo (colectivo de todos
los elementos sujetos de estudio). Por ejemplo: si estamos analizando la edad de los
españoles, la población serı́a el conjunto de todas las edades de todos los españoles y el
universo serı́a el conjunto de todos los españoles.

Muestra: subconjunto cualquiera de la población. Para que la muestra nos sirva para extraer
conclusiones sobre la población deberá ser representativa, lo que se consigue seleccio-
nando los elementos al azar.

1
2 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

Muestreo: procedimiento de obtención de una muestra.


Entre otros, podemos tener los siguientes tipos:

1. Opinático. La selección de los elementos muestrales se realiza según el criterio del


investigador. Es subjetivo y, por tanto, la muestra obtenida no será representativa
de la población.
2. Aleatorio. Se selecciona una muestra de forma que cada elemento de la población
tiene la misma probabilidad de resultar elegido.
3. Aleatorio simple (m.a.s). Será aquel muestreo aleatorio en el que la probabilidad de
que un elemento resulte seleccionado se mantiene constante a lo largo del proceso.
La técnica del muestreo puede asimilarse a un modelo de extracción con devolución
o reemplazamiento. Por tanto, un mismo dato puede ser muestreado más de una
vez. Los datos muestrales serán estocásticamente independientes. (En la práctica
suelen utilizarse tablas de números aleatorios).
4. Irrestricto. Es también muestreo aleatorio, pero la probabilidad de obtener un dato
en cada selección viene influida por los resultados anteriores. No permitimos que
un mismo dato sea seleccionado más de una vez; por tanto, se corresponde con un
modelo de extracción sin reemplazamiento.
En el estudio de muestras de poblaciones finitas es fundamental analizar las dis-
tribuciones muestrales con muestreo irrestricto. Sin embargo, si la población es
muy grande (N → ∞), este muestreo puede considerarse como muestreo aleatorio
simple.
5. Estratificado. Se divide a la población en estratos, niveles o grupos según criterios
prefijados (los elementos dentro del estrato son lo más parecidos posible) y la
muestra se toma asignando un número o cuota de miembros a cada estrato y
escogiendo los elementos, dentro del estrato, por m.a.s.
El m.a.s. debe utilizarse cuando los elementos de la población son homogéneos
respecto a la caracterı́stica a estudiar. Cuando dispongamos de información sobre
la población conviene tenerla en cuenta al seleccionar la muestra. Un ejemplo
son las encuestas de opinión, donde los elementos (personas) son heterogéneos
en razón a su sexo, edad, profesión, etc. En estos casos interesa que la muestra
tenga composición análoga a la población y esto se consigue con un muestreo
estratificado.
6. por Conglomerados. Cuando los elementos de la población se encuentran “de ma-
nera natural” agrupados en conglomerados, cuyo número se conoce, y podemos
suponer que cada uno de estos conglomerados es una muestra representativa de la
población total respecto de la variable que se estudia. El muestreo consiste en se-
leccionar algunos de estos conglomerados al azar y, dentro de ellos, analizar todos
sus elementos o una muestra aleatoria simple.

Muestra genérica de tamaño n: es una variable aleatoria n-dimensional X = (x1 , x2 , . . . , xn )


donde cada xj (j = 1, 2, . . . , n) es un dato muestral genérico y recorre todos los posi-
bles valores que puede tomar el j-ésimo elemento de una muestra de n elementos. Por
tanto, una muestra concreta (realizada) será un valor particular (una realización) de la
muestra genérica.
1.1. INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA 3

En la medida en que en el muestreo aleatorio cada elemento de la población tiene una


probabilidad de ser elegido, cada dato muestral genérico será una v.a. que tendrá asocia-
da una función de probabilidad f (xj ) (de cuantı́a o de densidad) según una determinada
distribución que llamaremos distribución de la población.
Si trabajamos con m.a.s., cada xj es estocásticamente independiente y entonces la
función de probabilidad conjunta de la muestra genérica será:

f (X) = f (x1 , x2 , . . . , xn ) = nj=1 f (xj )

Parámetro: cualquier valor desconocido de la distribución de la población.

Estadı́stico: es cualquier función de los valores muestrales que depende exclusivamente de


estos. Como los valores muestrales son v.a’s también lo son los estadı́sticos. Son es-
tadı́sticos, por ejemplo, x4 − x2 , la media muestral x, la varianza muestral s2 ; pero no
es estadı́stico (x1 + x3 ) · σ 2 , porque σ 2 es la varianza poblacional y para calcularla se
necesitan todos los valores de la variable estudiada en la población.
Los estadı́sticos los utilizaremos para inferir los valores de los parámetros.

1.1.2. Estadı́stico. Distribución muestral.


Como ya hemos definido, los estadı́sticos son funciones de los valores muestrales. Por ser
variables aleatorias tendrán sus correspondientes distribuciones de probabilidad y la Infe-
rencia Estadı́stica necesitará analizar estas distribuciones de probabilidad. Las denominamos
distribuciones muestrales.

Es importante conocer la distribución muestral de los estadı́sticos para determinar cuan


fiable puede ser utilizar el estadı́stico para inferir alguna caracterı́stica desconocida de la
población.

Ejemplo 1. Consideramos la población {0, 1, 2} y suponemos que son equiprobables.

Si calculamos la media y varianza de esa población obtenemos:

0+1+2 02 + 1 2 + 2 2 5−3 2
µ= =1 σ2 = − 12 = =
3 3 3 3
Consideramos todas las muestras de tamaño n = 2 con reposición, y calculamos su media:

x1 0 0 0 1 1 1 2 2 2
x2 0 1 2 0 1 2 0 1 2
x2 0 0’5 1 0’5 1 1’5 1 1’5 2

Por tanto, los valores que toma el estadı́stico X 2 (media muestral) son:

x2i 0 0’5 1 1’5 2


P (X 2 = x2i ) 1/9 2/9 3/9 2/9 1/9
4 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

Si calculamos la media y varianza de esta variable aleatoria tenemos:


1 2/3 σ2
E[X 2 ] = 1 = µ var[X 2 ] = = = 
3 2 n

Aplicación inferencial para la distribución t de Student: se utiliza en todos aquellos casos


en que se estudia una población normal y se desconoce su varianza.
Aplicación inferencial para la distribución F de Snedecor: sus principales usos son los de
la contrastación de la igualdad de varianzas de dos poblaciones normales y, fundamentalmente,
el análisis de varianza y el diseño de experimentos, técnicas que permiten detectar la existencia
ó inexistencia de diferencias significativas entre muestras diferentes.
Aplicación inferencial para la distribución χ2 de Pearson: para intervalos de confianza de
la varianza, contraste de hipótesis sobre la varianza y en los contrastes no paramétricos sobre
independencia y ajuste a modelos de probabilidad.

1.1.3. Distribuciones muestrales.


Vamos a distinguir si trabajamos con población cualquiera o con población que tenga
distribución normal.

Población cualquiera
Sean X1 , X2 , . . . , Xn una m.a. de variables aleatorias identicamente distribuidas con E[Xi ] =
µ y var[Xi ] = σ 2 . No podemos calcular la distribución muestral de los estadı́sticos, pero sı́ se
podrá determinar la esperanza y varianza de los principales estadı́sticos en función de los
parámetros de la distribución de la población.

Media muestral.
X1 + X2 + . . . + Xn
Xn =
n
Teorema 1. E[X n ] = µ (tanto para m.a.s. como irrestricto)
Teorema 2. var[X n ] = σ 2 /n (para m.a.s.)
σ2 N −n
Teorema 3. var[X n ] = n · N −1 (para irrestricto)
Varianza muestral. (los resultados serán para m.a.s.)
∑n ∑ 2
(Xi − X n )2 Xi 2
2
sn = = − Xn
n n
i=1
n−1 2
Teorema 4. E[s2n ] = n σ
Teorema 5. Llamando αn = E[X n ] tenemos
α4 − α2 2(α4 − 2α22 ) α4 − 3α22
var[s2n ] = − −
n n2 n3
1.1. INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA 5

Población normal

Consideramos que X1 , X2 , . . . , Xn son una m.a.s. de variables aleatorias tales que Xi ,→


N (µ, σ 2 ), ∀i.

Teorema 6. X n y s2n son independientes.

Media muestral con σ 2 conocida. Teorema 7. X n ,→ N (µ, σ 2 /n)


Varianza muestral. En lugar de obtener la distribución muestral del estadı́stico varianza
muestral vamos a obtener la distribución de la variable aleatoria ns2n /σ 2 (no es es-
tadı́stico pues depende de σ 2 ). También podemos considerar la cuasivarianza muestral
o varianza insesgada:

n
(xi − xn )2
s∗2
n = Se cumple ns2n = (n − 1)s∗2
n−1 n
i=1

ns2n (n−1)s∗2
Teorema 8. σ2
,→ χ2 (n − 1) σ2
n
,→ χ2 (n − 1)
Podemos calcular la media y varianza de las variables s2n (varianza muestral) y s∗2
n
(cuasivarianza muestral) teniendo en cuenta la media y varianza de una distribución
χ2 (n − 1):
n−1 2 2(n − 1)σ 4 2σ 4
E[s2n ] = σ var[s2n ] = E[s∗2
n ]=σ
2
var[s∗2
n ]=
n n2 n−1

Media muestral con σ 2 desconocida. ..


−µ
X n√ ns2n
Teorema 9. Sabemos que σ/ n
,→ N (0, 1) y σ2
,→ χ2 (n − 1) entonces

Xn − µ Xn − µ
√ ,→ t(n − 1) Análogamente, tenemos √ ,→ t(n − 1)
sn / n − 1 s∗n / n

Proporción muestral. Tenemos una población que sigue un modelo Bernouilli y elegimos
una muestra X1 , X2 , . . . , Xn donde Xi ,→ Be(p) ∀i.
Consideramos la variable aleatoria X =“n0 de éxitos en la muestra”, la cual sigue una
distribución Bi(n, p). Definimos P =“proporción de éxitos en n extracciones”, entonces
X pq
Teorema 10. P = n y se cumple E[P ] = p var[P ] = n
P −E[P ]
Si n es grande, por el T.C.L., σP ,→ N (0, 1)

Debemos usar corrección por continuidad ± 0n5
Diferencia de medias muestrales con varianzas conocidas. ..
Teorema 11. Sean X e Y v.a’s sobre dos poblaciones normales e independientes tales
que X ,→ N (µx , σx2 ) e Y ,→ N (µy , σy2 ). Sobre la población de X realizamos un m.a.s.
de tamaño n y sobre Y otro m.a.s. de tamaño m. Entonces

σx2 σy2
X n − Y m ,→ N (µx − µy , x+ )
n m
6 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

Caso particular: Diferencia de proporciones cuando el tamaño muestral es grande


p1 q1 p2 q2
P1 − P2 ,→ N (p1 − p2 , + )
n m

Diferencia de medias muestrales con varianzas desconocidas pero iguales. ..


Teorema 12. En las condiciones del Teorema 11, pero sin conocer los valores de las
varianzas poblacionales y suponiendo que son iguales, tenemos

(X − Y ) − (µx − µy )
√ 2 ,→ t(n + m − 2)
nsx +ms2y 1 1
n+m−2 ( n + m )

Para suponer que las varianzas poblacionales son iguales, se debe realizar primero un
contraste de igualdad de varianzas.

Cociente de varianzas Sean X1 , X2 , . . . , Xn muestra aleatoria de v.a’s independientes ta-


les que Xi ,→ N (µx , σx2 ), ∀i = 1, 2, . . . , n e Y1 , Y2 , . . . , Ym muestra aleatoria de v.a’s
independientes tales que Yj ,→ N (µy , σy2 ), ∀j = 1, 2, . . . , m.
Teorema 13. Si suponemos que las X y las Y son independientes entre si, tenemos que

ns2x ms2y
,→ χ2 (n − 1) y ,→ χ2 (m − 1) (por el Teorema 8)
σx2 σy2

ns2x
/(n − 1) s∗2 2
σx2 x /σx
Entonces ,→ F (n−1, m−1) ó ,→ F (n−1, m−1)
msy2
/(m − 1) s∗2 2
y /σy
σy2

1.1.4. Ejemplos.
Vamos a considerar distintos ejemplos donde deberemos utilizar las distribuciones mues-
trales que acabamos de definir.

A) Consideremos que la población de estudiantes de Psicologı́a se distribuye N (100, 225)


en las puntuaciones de un test de inteligencia espacial. Si extraemos una m.a.s. de 49
alumnos, ¿cuál es la probabilidad de que se obtenga una media muestral de 110 puntos
o más?.
Sol. La media muestral X 49 seguirá una distribución normal de media 100 y varianza
225/49 (por el Teorema 7).
Nos piden P (X 49 ≥ 110). Por tanto, por complementarios y teniendo en cuenta la
distribución normal:
X 49 − 100 110 − 100
P (X 49 ≥ 110) = 1 − P ( < ) = 1 − Φ(4′ 67) = 1 − 1 = 0
15/7 2′ 143
1.1. INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA 7

B) Supongamos que la desviación tı́pica de la población de pesos de los recien nacidos es


100 gr. Seleccionamos una muestra aleatoria de 26 recien nacidos. ¿Qué probabilidad
hay de que la varianza muestral sea inferior a 10816 gr2 ?.
ns2n
Sol. Teniendo en cuenta que σ2
,→ χ2 (n − 1), nos piden P (s226 ≤ 10816) y operando
obtenemos
26 · s226 26 · 10816
P (s226 ≤ 10816) = P ( ≤ ) = P (χ225 ≤ 28′ 12) = 0′ 75
1002 1002

C) Se supone que el promedio de los alumnos de Psicologı́a en una prueba de aptitud para
las matemáticas es 12. Se toma una muestra al azar de 10 alumnos y obtenemos una
media muestral de 14’18 y una varianza insesgada muestral de 25. ¿Qué probabilidad
existe de que suponiendo correcto el parámetro 12, aparezcan muestras con promedios
superiores a 14’18? (Suponemos población normal)
X n −µ
Sol. Nos piden P (X 10 ≥ 14′ 18). Teniendo en cuenta que √
s∗n / n
,→ t(n − 1), obtenemos

X n − 12 14′ 18 − 12
P (X 10 ≥ 14′ 18) = 1 − P ( √ < √ ) = 1 − P (t(9) ≤ 1′ 38) = 1 − 0′ 9 = 0′ 1
5/ 10 5/ 10

D) Supongamos que la población universitaria de la UJI está constituida por un 40 %


de varones y un 60 % de mujeres. Elegimos una m.a.s. de 12 alumnos. ¿Cuál es la
probabilidad de que en dicha muestra aparezca una proporción del 50 % ó más de
varones?
Sol. Si llamamos X =“n0 de varones en la muestra”, entonces X ,→ Bi(12, 0′ 4). Si
llamamos P=“proporción de varones en la muestra”, nos piden P (P ≥ 0′ 5).
P (P ≥ 0′ 5) = 1 − P (X/12 < 0′ 5) = 1 − P (X < 6) =
= 1 − (0′ 002 + 0′ 017 + 0′ 064 + 0′ 142 + 0′ 213 + 0′ 227) = 1 − 0′ 665 = 0′ 335

E) Determinada teorı́a afirma que no existe diferencia en agresividad entre hombres y mu-
jeres. Para comprobarlo tomamos una m.a.s. de 64 hombres y 64 mujeres. Se les pasa
un test sobre agresividad y se obtienen medias muestrales de 34 y 32, respectivamente.
Supongamos que ambas poblaciones siguen distribuciones normales con la misma me-
dia y varianzas 20 y 16, respectivamente. ¿Qué probabilidad existe de que se de una
diferencia mayor ó igual que la encontrada?
Sol. Si consideramos X =“agresividad en los hombres” e Y =“agresividad en las muje-
res”.
Tenemos que X 64 ,→ N (µ, 20/64) e Y 64 ,→ N (µ, 16/64).
Entonces X 64 − Y 64 ,→ N (µ − µ, 20
64 + 16
64 ).
8 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

Nos piden P (|X 64 − Y 64 | ≥ 34 − 32)

−2 − 0 X 64 − Y 64 2−0
P (|X 64 −Y 64 | ≥ 34−32) = 1−P (−2 ≤ X 64 −Y 64 ≤ 2) = 1−P ( √ ≤ ′
≤ ′ )=

0 5625 0 75 0 75

= 1 − [Φ(2′ 67) − 1 + Φ(2′ 67)] = 2 − 2 · 0′ 9962 = 0′ 0076

F) Un psicólogo pretende conocer la influencia de dos métodos diferentes sobre la retención


de palabras. Para ello asigna al azar los tratamientos a dos grupos de 15 y 12 sujetos
elegidos al azar. Las varianzas muestrales que obtiene son 3 y 2’2, respectivamente. Se
supone que el número de respuestas correctas con cada método se distribuye aproxima-
damente normal, con los mismos parámetros poblacionales. ¿Cuál es la probabilidad de
que la diferencia entre las medias muestrales sea 2 ó superior?.
Sol. Sea X n =media de respuestas correctas en grupo 1. n = 15 s215 = 3
Sea Y m =media de respuestas correctas en grupo 2. m = 12 s212 = 2′ 2
(X−Y )−(µx −µy ) (X 15 −Y 12 )−0
Sabemos que √ ,→ t(n + m − 2). Entonces √
15·3+12·2′ 2 1
,→ t(25)
ns2 2
x +msy 1 1
1
( 15 + 12 )
n+m−2
(n +m ) 15+12−2

Nos piden P (|X 15 − Y 12 | ≥ 2)

−2 − 0 X 15 − Y 12 − 0 2−0
P (|X 15 −Y 12 | ≥ 2) = 1−P (−2 ≤ X 15 −Y 12 ≤ 2) = 1−P ( √ ≤ ′
≤ ′ )=
0′ 4284 0 6545 0 6545

= 1 − P (t(25) ≤ 3′ 06) + P (t(25) ≤ −3′ 06) = 2 − 2 · 0′ 9975 = 0′ 005

G) Con el enunciado del ejemplo (F), ¿cuál serı́a la probabilidad de que el cociente de
varianzas muestrales fuera mayor o igual que el obtenido, siendo n =16 y m = 13?
Sol. Sabemos que

ns2x 16s2n
σx2
/(n − 1) σx2
/(16 − 1)
ms2y
,→ F (n − 1, m − 1). Entonces 13s2m
,→ F (15, 12)
σy2
/(m − 1) σy2
/(13 − 1)

s2
Nos piden P ( s216 ≥ 23′ 2 ). Como las varianzas poblacionales son iguales podemos simpli-
13
ficarlas en la distribución y haciendo operaciones nos quedará:

s216 3 16s216 /σ 13 − 1 3 · 16/σ 13 − 1


P( ≥ ′ ) = 1−P ( · ≤ ′ · ) = 1−P (F (15, 12) ≤ 1′ 3426) > 0′ 1
2
s13 22 13s216 /σ 16 − 1 2 2 · 13/σ 16 − 1
1.2. ESTIMACIÓN PUNTUAL DE PARÁMETROS 9

1.2. Estimación Puntual de Parámetros


1.2.1. Estimador y estimación puntual.
Cuando estudiamos una población puede ocurrir que alguno o algunos de sus parámetros
(µ, σ 2 , λ, p) sean desconocidos, ası́ pues llamaremos:

Problema de estimación cuando, dada una población con una distribución fθ (x), donde
θ es un parámetro desconocido, aventuremos o infiramos en base a los datos muestrales
X1 , X2 , . . . , Xn el valor de θ.
Si al inferir el parámetro damos un único valor estaremos en un problema de estimación
puntual.

Estimador θ̂(X1 , X2 , . . . , Xn ) será una función de la muestra aleatoria (un estadı́sti-


co) que utilizaremos para estimar θ. Normalmente lo denotaremos simplemente por θ̂,
siempre que no haya confusión con la notación de estimación.

Estimación θ̂ será el valor que tomará el estimador al trabajar con la muestra concreta,
y por tanto, será la solución concreta de nuestro problema.

Un estimador es un estadı́stico y, por ello, es una variable aleatoria con una determinada
distribución de probabilidad que denominamos distribución muestral.
Dado un parámetro desconocido podemos plantear varios estimadores; por ejemplo, para
la varianza poblacional (σ 2 ) podemos considerar como estimadores la varianza (s2n ) o la
cuasivarianza (s∗2
n ) muestrales. ¿Cuál será mejor?
Veamos algunas de las propiedades que podemos considerar para elegir los mejores esti-
madores.

1.2.2. Propiedades de los estimadores.


Un estadı́stico se considera un buen estimador de un parámetro si cumple:
a) ser insesgado; b) ser consistente; c) ser eficiente; d) ser suficiente.

a) Insesgadez. Un estimador θ̂ se dice que es insesgado si su esperanza es el parámetro a


estimar. Es decir, E[θ̂] = θ. (Su distribución está centrada en el parámetro a estimar).
Ejemplo 1. Sea una m.a.s X1 , X2 , . . . , Xn tal que E[Xi ] = µ var[Xi ] = σ 2 .
(1) Consideramos como estimador de la media poblacional a la media muestral. Es
decir, µ̂ = X n .
Por el tema anterior sabemos que E[X n ] = µ. Por tanto, la media muestral es estimador
insesgado de la media poblacional.
(2) Supongamos como estimador de la varianza poblacional a la varianza muestral,
σ̂ 2 = s2n .
Del tema anterior tenemos que E[s2n ] = n−1 2
n σ . Por tanto, la varianza muestral no es
estimador insesgado de la varianza poblacional.
(3) Consideramos ahora, como estimador de la varianza poblacional a la cuasivarianza
muestral, σ̂ 2 = s∗2
n .
10 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

Del tema anterior tenemos que E[s∗2 2


n ] = σ . Por tanto, la cuasivarianza muestral si es
estimador insesgado de la varianza poblacional. (Por eso se le llama también varianza
insesgada).

b) Consistencia. Diremos que θ̂ es un estimador consistente de θ si

lı́m E[θ̂] = θ y lı́m var[θ̂] = 0 ⇐⇒ lı́m P (θ̂ = θ) = 1


n→∞ n→∞ n→∞

Ejemplo 2. Veamos que estimadores del ejemplo 1 son consistentes:


σ 2 n→∞
(1) µ̂ = X n . Se cumple que E[X n ] = µ y var[X n ] = n −→ 0
Por tanto, X n es estimador consistente de µ.
n−1 2 n→∞ 2(n−1) 4 n→∞
(2) σ̂ 2 = s2n . Se cumple que E[s2n ] = n σ −→ σ 2 y var[s2n ] = n2
σ −→ 0.
Por tanto, s2n es estimador consistente de σ 2 .
(3) σ̂ 2 = s∗2 ∗2 ∗2 4 n→∞
n−1 σ −→
2 2
n . Se cumple que E[sn ] = σ y var[sn ] = 0.
Por tanto, s∗2 2
n es estimador consistente de σ .

c) Eficiencia. Dados dos estimadores de θ, θ̂1 y θ̂2 , decimos que θ̂1 es más eficiente que θ̂2
si var[θ̂1 ] < var[θ̂2 ].
(Algunos autores exigen que el estimador sea insesgado).
var[θ̂1 ]
Para comparar la eficiencia se construye el cociente . Si es mayor que 1, entonces
var[θ̂2 ]
θ̂2 es más eficiente; si es igual a 1, entonces ambos estimadores son igual de eficientes;
si es menor que 1, entonces θ̂1 es más eficiente.
Ejemplo 3. Consideremos como estimadores de σ 2 a s2n y s∗2
n . Calculemos el cociente
de varianzas:
var[s2n ] 2(n − 1)/n2 σ 4 (n − 1)2
∗2
= · 4 = <1
var[sn ] 2/(n − 1) σ n2

Por tanto, s2n es más eficiente.

d) Suficiencia. Decimos que θ̂ es un estimador suficiente de θ si la distribución conjunta de


la muestra, dado θ̂, no depende de θ. Es decir, si contiene toda la información necesaria
de la muestra para estimar el parámetro θ.
Para determinar si un estimador es suficiente se utiliza el denominado “Criterio de
Factorización de Fisher-Neyman”.
Ejemplo 4. Los estimadores muestrales X n , p, s2n , s∗2
n son estimadores suficientes de
sus correspondientes parámetros (µ, π, σ 2 ).
1.2. ESTIMACIÓN PUNTUAL DE PARÁMETROS 11

1.2.3. Métodos de cálculo de los estimadores.


• Método de los momentos. Consiste en elegir como estimadores de los momentos pobla-
cionales a los momentos muestrales.

• Estimación máximo-verosı́mil. Sea X una variable aleatoria con distribución f (x; θ), don-
de θ es el parámetro desconocido. Sean X1 , X2 , . . . , Xn n v.a’s independientes con la misma
distribución que X; es decir, sea (X1 , X2 , . . . , Xn ) una m.a.s. Bajo estas condiciones, la dis-
tribución conjunta de las variables X1 , X2 , . . . , Xn será igual al producto de las marginales:

f (x1 , x2 , . . . , xn ; θ) = f (x1 ; θ) · f (x2 ; θ) · . . . · f (xn ; θ) (por ser independientes)

Dicha función puede ser considerada bajo dos puntos de vista:

1. Como función de x1 , x2 , . . . , xn , manteniendo fijo θ: no es más que la distribución con-


junta de las variables X1 , X2 , . . . , Xn .

2. Como función de θ, manteniendo fijas las x1 , x2 , . . . , xn : recibe el nombre de función de


verosimilitud y se denota por V (θ).

Supongamos varios estimadores de θ, (θ̂1 , θ̂2 , etc.). De todos ellos pretendemos elegir el
que haga máxima la función de verosimilitud.
Por tanto, un estimador θ̂ será estimador máximo verosı́mil (EMV) de θ si maximiza la
función de verosimilitud.
Es equivalente maximizar V (θ) o su logaritmo neperiano (por ser una función continua
y creciente) y normalmente será más sencillo trabajar con el logaritmo. Para maximizar
deberemos resolver la siguiente ecuación:

d(ln V (θ))
=0

En el caso de tener dos ó más parámetros desconocidos, el procedimiento es similar.
Por ejemplo, si tuvieramos una función de verosimilitud de tres parámetros V (θ1 , θ2 , θ3 ),
los estimadores máximo verosı́miles serán los que maximizan la función V (θ1 , θ2 , θ3 ) o su
logaritmo. Dichos estimadores se obtendrán al resolver las ecuaciones siguientes:

δ(ln V ) δ(ln V ) δ(ln V )


= 0; = 0; =0
δθ1 δθ2 δθ3
12 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

Propiedades de los estimadores máximo verosı́miles:

1. Son consistentes.

2. Son asintóticamente eficientes (es decir, tienen la varianza mı́nima cuando el tamaño
muestral tiende a infinito).

3. Si θ̂ es estimador suficiente de θ, el EMV de θ es función de θ̂.

4. Son asintóticamnete normales (es decir, su distribución tiende a la distribución normal


cuando el tamaño de la muestra tiende a infinito).

5. Si θ̂ es EMV de θ, entonces g(θ̂) es EMV de g(θ), siendo g una aplicación biyectiva.

Ejemplo 5. Obtener el EMV del parámetro π (π = p = P (éxito)) de una v.a. X que


sigue una distribución de Bernouilli, X ,→ Be(p).

La función de cuantı́a de la distribución Bernouilli es f (x; p) = px (1 − p)1−x .

Si elegimos una m.a.s. de tamaño n, la función de verosimilitud será


∑ ∑
V (p) = f (x1 ; p)·. . .·f (xn ; p) = px1 (1−p)1−x1 ·px2 (1−p)1−x2 ·. . .·pxn (1−p)1−xn = p xi
(1−p)n− xi

Tomando logaritmos obtenemos:


n ∑
n
ln V (p) = xi ln p + (n − xi ) ln(1 − p)
i=1 i=1

d ln V (p)
Para obtener el EMV de p debemos resolver la ecuación: dp =0
En este caso
d ln V (p) ∑ 1 ∑
n n
(−1)
= xi + (n − xi ) =0
dp p 1−p
i=1 i=1

Haciendo operaciones e igualando denominadores, tendremos


n ∑
n ∑
n ∑
n ∑
n ∑
n
(1 − p) xi − p(n − xi ) = xi − p xi − np + p xi = xi − np = 0
i=1 i=1 i=1 i=1 i=1 i=1

∑n
xi
Despejando el valor de p obtenemos el estimador EMV(p) = i=1
n = P.

Es decir, el EMV de la proporción poblacional es la proporción muestral (proporción de


éxitos en la muestra).
1.3. ESTIMACIÓN POR INTERVALOS 13

1.3. Estimación por Intervalos


1.3.1. Definiciones básicas.
En la estimación puntual, al parámetro le atribuimos el valor del estimador obtenido al
sustituir los datos muestrales. Es claro que dicho valor difı́cilmente coincidirá con el verdadero
valor del parámetro aunque la muestra sea grande.

La estimación por intervalo consiste en atribuir al parámetro desconocido un rango de


posibles valores (en base a los datos muestrales) que tengan una alta probabilidad de incluir
entre ellos al verdadero valor del parámetro desconocido. Para ello será imprescindible conocer
la distribución muestral del estadı́stico utilizado.

El intervalo estimado que debe contener al parámetro se le denomina intervalo confiden-


cial o de confianza. Denominamos lı́mites confidenciales a los extremos de dicho intervalo.
Llamaremos nivel de confianza a la probabilidad de que un intervalo contenga al parámetro
desconocido; se suele denotar por 1 − α. Se llama nivel de riesgo o significación al valor α.
Es decir, si θ es el parámetro a estimar

P (θ ∈ [a, b]) = 1 − α

Esto indica que el (1 − α) % de intervalos construidos contendrán al parámetro desconocido.

Denominamos error muestral máximo a la diferencia entre el valor de la estimación mues-


tral y el valor del parámetro; es decir, E = |θ̂ − θ| = b−a
2 (el error muestral máximo será la
mitad de la amplitud del intervalo).

Ejemplo 1. Sea θ el parámetro desconocido y θ̂ el estimador que consideramos, el cual


sigue una distribución N (θ, σ 2 ).
Supongamos un error muestral máximo de 2 desviaciones tı́picas (E = |θ̂ − θ| = 2σ).
Si calculamos la probabilidad de tener ese error o uno menor, obtendremos:

θ̂ − θ
P (|θ̂ − θ| ≤ 2σ) = P (−2σ ≤ θ̂ − θ ≤ 2σ) = P (−2 ≤ ≤ 2) =
σ
= Φ(2) − Φ(−2) = 2Φ(2) − 1 = 0′ 9546
ya que el estimador seguı́a una distribución N (θ, σ 2 ).

Esta probabilidad podemos escribirla también de la siguiente forma:

P (−2σ ≤ θ̂−θ ≤ 2σ) = P (2σ ≥ −θ̂+θ ≥ −2σ) = P (−2σ+θ̂ ≤ θ ≤ 2σ+θ̂) = P (θ ∈ [θ̂−2σ, θ̂+2σ])

Por tanto, el intervalo de confianza [θ̂ − 2σ, θ̂ + 2σ] tiene un nivel de confianza de 1 − α =
0′ 9546 o un nivel de significación de α = 0′ 0454.
Esto equivale a decir que tenemos la confianza 0’9546 de que, extraı́da una muestra y
calculado el valor de θ̂, éste no se aleja del parámetro más de dos desviaciones tı́picas o un
riesgo de 0’0454 de que se aleja más de esa cantidad.
Dicho de otro modo, si obtenemos una muestra en la que θ̂ está en la zona rayada, el
intervalo no contendrá al parámetro θ.
14 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

Normalmente lo que se hace es fijar de antemano el nivel de confianza y se busca el


intervalo correspondiente a ese nivel de confianza, utilizando la distribución muestral del
estadı́stico.

1.3.2. Intervalos de confianza.


(A) Intervalo de confianza para la media.

Suponemos una población que se distribuye N (µ, σ 2 ), siendo µ desconocida. (También


sirve cuando la población no es normal pero el tamaño muestral es grande).

Si σ 2 es conocida.
−µ
Ya sabemos que X n√
σ/ n
,→ N (0, 1). Sea z1− α2 el percentil de la distribución normal
tipificada, es decir, Φ(z) = 1 − α2

Xn − µ
P (−z1− α2 ≤ √ ≤ z1− α ) = 1 − α
σ/ n 2

Despejando µ, tenemos P (X n − z1− α2 √σn ≤ µ ≤ X n + z1− α2 √σn ) = 1 − α

Por tanto, el intervalo de confianza para µ será [X n − z1− α2 √σn , X n + z1− α2 √σn ]

Si σ 2 es desconocida.
X√ n −µ X n −µ
En este caso tenemos que sn / n−1
,→ t(n − 1) o √
s∗n / n
,→ t(n − 1).
Por el mismo razonamiento anterior, si llamamos t1− α2 (n − 1) al percentil de la distri-
bución t de Student tal que P (t(n − 1) ≤ x) = 1 − α2 , el intervalo de confianza para µ
al nivel de significación α (o equivalentemente, al nivel de confianza 1 − α) será:
sn sn
[X n − t1− α2 (n − 1) √ , X n + t1− α2 (n − 1) √ ]
n−1 n−1
s∗ s∗
[X n − t1− α2 (n − 1) √n , X n + t1− α2 (n − 1) √n ]
n n

Ejemplo 2. Extraemos una m.a.s. de 61 estudiantes universitarios, los cuales responden


a una prueba de inteligencia espacial. Se obtiene una media muestral de 80 y una varianza
muestral de 100. ¿Entre qué lı́mites se hallará la verdadera puntuación media de la prueba,
a un nivel de confianza del 99 %?
Sol. 1 − α = 0′ 99 =⇒ α = 0′ 01 =⇒ 1 − α2 = 0′ 995
Como la varianza poblacional es desconocida pero el tamaño muestral es mayor que 30,
aunque la población no es normal, el intervalo correspondiente será:
sn sn
[X n − t1− α2 (n − 1) √ , X n + t1− α2 (n − 1) √ ]
n−1 n−1
1.3. ESTIMACIÓN POR INTERVALOS 15

Buscamos en tablas de la distribución t de Student: t0′ 995 (61 − 1) = 2′ 66


Sabemos que X 61 = 80 y s261 = 100. Sustituyendo en el intervalo y haciendo operaciones
tenemos:
10 10
[80 − 2′ 66 √ , 80 + 2′ 66 √ ] =⇒ µ ∈ [76′ 57, 83′ 43] con confianza del 99 % 
60 60

(C) Intervalo de confianza para la diferencia de medias.

Suponemos dos poblaciones independientes, X ,→ N (µ1 , σ12 ) e Y ,→ N (µ2 , σ22 ). Tomamos


muestras de tamaños n y m, respectivamente.
σ2 σ2
Si σ12 y σ22 son conocidas, como X n −Y m ,→ N (µ1 −µ2 , n1 + m2 ), el intervalo de confianza
será:
√ √
σ12 σ22 σ12 σ22
µ1 − µ2 ∈ [X n − Y m − z1− α2 + , X n − Y m + z1− α2 + ]
n m n m

X −Y m −(µ1 −µ2 )
Si σ12 y σ22 son desconocidas pero iguales, como √n ,→ t(n + m − 2) el
ns2 2
1 +ms2 ( 1 + 1 )
n+m−2 n m
intervalo de confianza será:
√ √
ns21 + ms22 1 1 ns21 + ms22 1 1
[X n −Y m −t1− α2 (n+m−2) ( + ), X n −Y m +t1− α2 (n+m−2) ( + )]
n+m−2 n m n+m−2 n m

Podemos obtener una expresión equivalente utilizando la cuasivarianza muestral, sim-


plemente sustituyendo ns21 por (n − 1)s∗2
1 y ms2 por (m − 1)s2
2 ∗2

Ejemplo 3. Con el fin de comparar el promedio de faltas de ortografı́a cometidas en una


composición por dos clases similares de alumnos, se tomaron dos muestras de 7 y 8 alumnos,
respectivamente, y se observaron los siguientes errores:
Clase 1: 10, 10, 12, 12, 13, 13, 14 Clase 2: 8, 9, 10, 10, 10, 10, 12, 12
Suponiendo que el número de errores en ambas clases son normales, calcular el intervalo
de confianza del 95 % para la diferencia de medias:
a) suponiendo que las varianzas poblacionales son iguales y valen σ 2 = 1′ 44.
b) suponiendo que las varianzas son desconocidas pero iguales.

Sol. De los datos obtenemos:


• Clase 1: X̄7 = 12 s∗7 = 1′ 53 n=7 s27 = 2 s∗2 ′
7 = 2 33
• Clase 2: Ȳ8 = 10′ 125 s∗8 = 1′ 36 m=8 s28 = 1′ 61 s∗2 ′
8 = 1 84

a) 1 − α = 0′ 95 =⇒ 1 − α
= 0′ 975 =⇒ z1− α2 = 1′ 96
2 √ √
′ ′ ′ ′
µ1 − µ2 ∈ [12 − 10′ 125 − 1′ 96 1 744 + 1 844 , 12 − 10′ 125 + 1′ 96 1 744 + 1 844 ] =

= [1′ 875 − 1′ 96 0′ 3857, 1′ 875 + 1′ 96 · 0′ 621] = [1′ 875 − 1′ 217, 1′ 875 + 1′ 217] = [0′ 658, 3′ 092]
16 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

b) 1 − α = 0′ 95 =⇒ 1 − = 0′ 975 =⇒ t1− α2 (n + m − 2) = t0′ 975 (13) = 2′ 16


α
2√ √
′ 61 1 7·2+8·1′ 61 1
µ1 − µ2 ∈ [12 − 10′ 125 − 2′ 16 7·2+8·1
7+8−2 ( 7 + 1
8 ), 12 − 10 ′ 125 + 2′ 16 1
7+8−2 ( 7 + 8 )] =

= [1′ 875 − 2′ 16 0′ 5538, 1′ 875 + 1′ 607] = [0′ 268, 3′ 482]

Como el valor 0 no pertenece a ninguno de los dos intervalos, podemos concluir que las
medias no serán iguales con una confianza del 95 %.

(E) Intervalo de confianza para la varianza.

Si tenemos una población X ,→ N (µ, σ 2 ), con σ 2 desconocida, entonces

ns2n (n − 1)s∗2
,→ χ2 (n − 1) ó n
,→ χ2 (n − 1)
σ2 σ2
El intervalo de confianza para la varianza poblacional al nivel de confianza 1 − α lo
podemos obtener como sigue:

ns2n
P (χ2α (n − 1) ≤ ≤ χ21− α (n − 1)) = 1 − α
2 σ2 2

Despejando σ 2 tenemos:

ns2n ns2n
P( ≤ σ 2
≤ )=1−α
χ21− α (n − 1) χ2α (n − 1)
2 2

Por tanto, el intervalo de confianza es

ns2n ns2n (n − 1)s∗2 (n − 1)s∗2


σ2 ∈ [ , ] ó σ 2 ∈ [ n
, n
]
χ21− α (n − 1) χ2α (n − 1) χ21− α (n − 1) χ2α (n − 1)
2 2 2 2

Nota: Si n > 100 podemos suponer normalidad y entonces el intervalo de confianza será:

ns2n ns2n
σ2 ∈ [ √ , √ ]
(n − 1) + z1− α2 2n (n − 1) − z1− α2 2n

Ejemplo 6. En una muestra de 19 individuos se observa que un determinado trastorno


emocional se produce a partir de una edad media de 50 años y una desviación tı́pica de 6
años. Se supone que estamos ante un fenómeno que sigue la ley normal.
a) Fijar los lı́mites del intervalo de confianza para la varianza con un nivel de confianza
del 99 %.
b) Realizar lo mismo que en el apartado anterior, pero suponiendo n = 200.
Sol.
a) s219 = 36, 1 − α2 = 0′ 995 =⇒ χ20′ 995 (18) = 37′ 2 y χ20′ 005 (18) = 6′ 26

19 · 36 19 · 36
σ2 ∈ [ , ′ ] = [18′ 39, 109′ 27]
37′ 2 6 26
1.3. ESTIMACIÓN POR INTERVALOS 17

b) Como n = 200 > 100, utilizamos el intervalo de la nota. z0′ 995 = 2′ 57


200 · 36 200 · 36 7200 7200
σ2 ∈ [ √ , √ ]=[ , ] = [28′ 75, 48′ 78]
199 + 2′ 57 2 · 200 199 − 2′ 57 2 · 200 250′ 4 147′ 6
Al utilizar un tamaño muestral mayor, se reduce la amplitud del intervalo.

(F) Intervalo de confianza para el cociente de varianzas.

La distribución muestral del cociente de varianzas muestrales insesgadas, cuando tenı́amos


dos poblaciones normales e independientes (habiendo extraı́do dos muestras de tamaños n y
m, respectivamente) es:
s∗2
n /σ1
2

s∗2 2 ,→ F (n − 1, m − 1)
m /σ2
A partir de aqui deducimos el intervalo de confianza para el cociente de varianzas al nivel de
confianza 1 − α y obtenemos:

σ12 s∗2 1 s∗2 1


∈ [ n
∗2
· , n
∗2
· ]
σ22 sm F1− α2 (n − 1, m − 1) sm F α2 (n − 1, m − 1)

Análogamente, si trabajamos con varianzas muestrales:

σ12 ns2n (m − 1) 1 ns2n (m − 1) 1


∈ [ · , · ]
σ22 msm (n − 1) F1− α2 (n − 1, m − 1) msm (n − 1) F α2 (n − 1, m − 1)
2 2

Ejemplo 7. Tras pasar una misma prueba de rapidez de cálculo a las dos clases de 20
de ESO de un colegio, la primera de ellas obtuvo una cuasivarianza de 242 segundos2 y en
la segunda, la cuasivarianza fue de 121 segundos2 . Los tamaños muestrales eran 25 y 31
alumnos, respectivamente.
Construir el intervalo de confianza para el cociente de varianzas al 90 %, bajo el supuesto
de que son muestras aleatorias simples de poblaciones normales.

Sol. n = 25 s∗2 24 = 242 segundos


2
m = 31 s∗230 = 121 segundos
2

1 − α2 = 0′ 95 =⇒ F0′ 95 (24, 30) = 1′ 8874 y F0′ 05 (24, 30) = F ′ (30,24)


1
= 1
1′ 9390 = 0′ 5157
0 95

σ12 242 1 242 1


2 ∈[ · ′ , · ′ ] = [1′ 06, 3′ 88]
σ2 121 1 8874 121 0 5157

Si hubieramos calculado el cociente inverso, necesitamos:


F0′ 95 (30, 24) = 1′ 9390 1
F0′ 05 (30, 24) = F ′ (24,30) = 1
1′ 8874
0 95
y sustituyendo en el intervalo tenemos:

σ22 121 1 121 ′


2 ∈[ · ′ , · 1 8874] = [0′ 258, 0′ 944]
σ1 242 1 9390 242

En ambos intervalos observamos que el valor 1 no pertenece. Por tanto, podemos concluir
que las varianzas poblacionales no podrán ser iguales, con un confianza del 90 %.
18 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

1.3.3. Precisión y tamaño de la muestra.


En general, cuando más estrecho es un intervalo de confianza mayor precisión tendrá nues-
tra estimación (será menor el error muestral máximo). Ahora bien, la amplitud de un intervalo
depende de dos factores:
a) del nivel de confianza que decidamos utilizar;
b) del tamaño del error tı́pico del estadı́stico utilizado como estimador (error tı́pico=desviación
tı́pica).
Si disminuimos el nivel de confianza, disminuye la amplitud del intervalo, pero aumenta
el riesgo. Debemos intentar reducir la amplitud del intervalo manteniendo constante el nivel
de confianza; para ello hay que reducir la desviación tı́pica (el error tı́pico) del estimador.

En el caso de la media, el error tı́pico es var[X] = √σn y para que disminuya su valor
debemos aumentar el tamaño muestral n.
En general, manipulando el tamaño de la muestra podemos obtener los intervalos de la
precisión que deseemos.
Para la media, si conocemos σ 2 :
σ σ
E = z1− α2 √ =⇒ n = (z1− α2 )2
n E
sn ∗
Para la media, si desconocemos σ 2 : Deberı́amos utilizar E = t1− α2 (n − 1) √ n
pero como no conocemos n y t(n − 1) se aproxima a una N (0, 1) cuando n > 30
obtendremos
s∗
n = (z1− α2 n )2
E
2
Para estimar σ generalmente se acude a:
• Estudios previos con temas y objetivos similares (se trabajará con las varianzas
muestrales obtenidas en ellos);
• Muestra piloto o sondeo previo (a través de una muestra pequeña de la población,
se estima σ 2 ).
Para la proporción:

0′ 5z1− α2 2
2
P Qz1−
PQ α
E = z1− α2 =⇒ n = 2
≤ ( )
n E2 E
En la primera expresión de n utilizaremos estimaciones de p y q obtenidas en estudios
previos (P y Q). En la segunda expresión utilizamos el máximo producto p · q ≤ 0′ 5 · 0′ 5
Para la varianza: √
2 2 2 σ4
E = z1− α2 σ =⇒ n = 2z1− α
n 2 E2

Tenemos que acudir a estudios previos o muestras piloto para estimar σ, y la magnitud
mı́nima de la muestra en este último caso ha de ser de 100 para que la distribución siga
la ley normal.
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 19

Ejemplo 8. Queremos estimar la media poblacional en una distribución normal con


varianza poblacional igual a 4.
a) ¿Qué tamaño muestral necesitamos para que el error sea de 0’5 al nivel de confianza
0’95?
b) ¿Y si queremos un error E=1, al mismo nivel de confianza?

Sol. 1 − α = 0′ 95 =⇒ 1 − α
2 = 0′ 975 =⇒ z0′ 975 = 1′ 96
σ 2 2
a) n = (z1− α2 ) = (1′ 96 · ′ )2 = (7′ 84)2 = 61′ 4656 ≈ 62
E 05
σ 2 2
b) En este caso, n = (z1− α2 ) = (1′ 96 · )2 = (3′ 92)2 = 15′ 3664 ≈ 16 
E 1

1.4. Contraste de Hipótesis Estadı́sticas


1.4.1. Introducción.
El investigador en cualquier campo de la Ciencia, que extrae y estudia una muestra de
una población en la que está interesado, está tratando de decidir algo o de formarse una
opinión acerca de algún aspecto de esa población.
Suponiendo que se dispone de la información muestral necesaria, se plantea el problema
de juzgar si una hipótesis particular acerca del estado de la población puede mantenerse o
no a la luz de esta información. La metodologı́a estadı́stica que nos permitirá dar solución a
esta cuestión es la de los contrastes de hipótesis.

Como ejemplos, tenemos situaciones a las que es aplicable y trata de dar sentido esta
metodologı́a:
Un psicólogo seleccionó 80 ratas para recorrer un laberinto recién diseñado. Todas las
ratas llegaron a aprender el recorrido, pero el número de ensayos promedio para llegar
a un rendimiento óptimo en la tarea fue de 17. Una larga experiencia con la población
de ratas del mismo tipo, recorriendo un modelo de laberinto distinto le dice que la
media de ensayos es de 15, con una desviación tı́pica de 2. Esto le lleva a plantearse la
pregunta: ¿es más difı́cil para las ratas el nuevo laberinto?
El problema del contraste de hipótesis consiste básicamente en comprobar o decidir la
veracidad de una hipótesis estadı́stica, llamada H0 , que formulamos sobre la distribución de
una población. La proposición que formulamos puede referirse al tipo de distribución o a los
parámetros de la distribución. En el primer caso, el contraste se resuelve con los denominados
contrastes no paramétricos. El segundo caso es el que vamos a estudiar en este apartado.

La solución del problema se basará en los datos muestrales y la base estadı́stica (proba-
bilı́stica) de la que arrancará el contraste será la distribución muestral de algún estadı́stico.

Las hipótesis nunca se aceptan de forma definitiva, sólo se aceptan provisionalmente; es


decir, no se rechazan a la espera de una nueva información que eventualmente pueda llevarnos
a rechazarla en el futuro.
20 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

Supongamos que deseamos hacer un contraste acerca de un parámetro θ de la población.


Para realizarlo consideramos la distribución de algún estadı́stico que de alguna manera se
corresponda con el parámetro. En general, designamos a este estadı́stico por T .

Si con los datos muestrales obtenemos un valor para T tal que pertenezca a una deter-
minada región del campo de variación de T , optaremos por aceptar la hipótesis, y en caso
contrario por rechazarla. Obviamente, la clave del problema está en determinar qué región
del campo de variación de T consideraremos para aceptar la hipótesis. Esto se resolverá por
un criterio probabilı́stico a partir de la distribución muestral de T .

1.4.2. Definiciones básicas.


Pasamos a definir los principales conceptos implicados en nuestro problema:

Región crı́tica. Será aquella región del campo de variación del estadı́stico tal que si
contiene al valor obtenido del mismo nos llevará a rechazar la hipótesis. La designaremos
por R1 .
Región de aceptación. Es la región complementaria de la anterior. Si el valor obtenido
del estadı́stico pertenece a ella, no rechazaremos la hipótesis. La designaremos por R0 .
Tipos de hipótesis. Llamaremos hipótesis estadı́stica a una suposición que determina,
parcial o totalmente, la distribución de probabilidad de una o varias variables aleatorias.
Estas hipótesis pueden clasificarse, según que:
1. Especifiquen un valor concreto o un intervalo para los parámetros de una variable
aleatoria. (La media de una población normal es 29).
2. Establezcan la igualdad de las distribuciones de dos o más variables (poblaciones).
(Las medias de dos poblaciones normales con igual varianza son idénticas).
3. Determinen la forma de la distribución de la variable. (La distribución de la po-
blación sigue modelo Poisson).
Aunque la metodologı́a para realizar el contraste es análoga en los tres casos, es impor-
tante distinguir entre ellos porque:
1. La contrastación de una hipótesis respecto a un parámetro está muy relaciona-
da con la construcción de intervalos de confianza, y tiene, frecuentemente, una
respuesta satisfactoria en términos de estimación (es lo que estudiaremos en este
capı́tulo).
2. La comparación de dos ó más poblaciones, requiere, en general, de un diseño
experimental que asegure la homogeneidad de las comparaciones.
3. Un contraste sobre la forma de la distribución es un contraste no paramétrico
que debe realizarse dentro de la fase de validación del modelo. (Los contrastes no
paramétricos se estudiarán en los capı́tulos 11 y 12).
En el caso (1), llamaremos hipótesis simple a aquella que especifica un único valor para
el parámetro (ej. µ = 29),
e hipotesis compuesta a la que especifica un intervalo de valores (ej. µ ≤ 30, ρxy ̸= 0)
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 21

Hipótesis nula H0 . Es la hipótesis a contrastar, que consideramos provisionalmente co-


mo verdadera y que revisaremos tras haber obtenido una serie de informaciones pro-
porcionadas por los datos muestrales. Estos resultados muestrales nos llevarán a seguir
manteniéndola como verdadera, o por el contrario a rechazarla como falsa.

Hipótesis alternativa H1 . Si rechazamos H0 estamos aceptando implı́citamente una


hipótesis alternativa. Suponiendo que H0 es simple (del tipo θ = θ0 ), los casos más
importantes de hipótesis alternativas son:

a) desconocemos en que dirección puede ser falsa H0 , y especificamos H1 : θ ̸= θ0 .


Decimos que es un contraste bilateral o de dos colas.
b) sabemos que si θ ̸= θ0 , forzosamente θ < θ0 (ó θ > θ0 ).
Decimos que es un contraste unilateral o de una cola.
Por ejemplo, si estamos en una investigación y se introducen cambios en un tra-
tamiento, sabemos que van a reducir el tiempo de respuesta, pero no pueden
aumentarlo (o aumentan el tiempo de respuesta pero no pueden disminuirlo).

Puede considerarse también el contraste de una hipótesis nula compuesta:


}
H0 : θ ≤ θ0
H1 : θ > θ 0

pero equivale al contraste simple H0 : θ = θ0 frente al unilateral H1 : θ > θ0

Ejemplo 1. Supongamos un investigador interesado en la relación existente entre el cons-


tructo extraversión-introversión (basado en la teorı́a de la personalidad de Eysenck) y el
condicionamiento. Siguiendo la metodologı́a hipotético-deductivo-experimental, el investiga-
dor deberı́a seguir los pasos presentados a continuación:

1. Teorı́a psicológica: Teorı́a de la personalidad de H.J. Eysenck, basada en los cons-


tructos de extraversión-introversión.

2. problema: ¿Existen diferencias en condicionamiento entre sujetos extravertidos e in-


trovertidos?

3. Formulación de hipótesis cientı́ficas operativas:


H: Los sujetos que puntúan alto en la escala de extraversión del E.P.I. (Eysenck Perso-
nality Inventory) requieren mayor número de ensayos para lograr un condicionamiento.

4. Verificación experimental de la(s) hipótesis:

4.1. Diseño experimental.


4.2. Muestreo: 2 muestras (n1 =Extravertidos; n2 = Introvertidos)
4.3. Recogida de datos: X =“número de ensayos requeridos”
4.4. Análisis descriptivo de los datos: x1 ; s21 ; x2 ; s22
4.5. Significación de la hipótesis:
22 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

• Formulación de la hipótesis estadı́stica: H0 : µ1 = µ2 H1 : µ1 > µ2


• Realización del contraste de hipótesis.
• Si se rechaza H0 aceptamos H1 : µ1 > µ2 con un nivel de significación α. Y
diremos que se ha confirmado nuestra hipótesis cientı́fica (H) con probabilidad
de error ≤ α.

1.4.3. Contraste de una hipótesis nula.


Consideremos la hipótesis nula H0 : θ = θ0 (frente a la alternativa H1 : θ ̸= θ0 , equivalente
a que no hay hipótesis alternativa).

Aceptaremos la hipótesis si el estadı́stico considerado pertenece a la región de acepta-


ción, T ∈ R0 .
Rechazaremos la hipótesis si el estadı́stico no pertenece a la región de aceptación (T ∈
/
R0 ), es decir, pertenece a la región crı́tica R1 .

Nuestro problema de decisión (aceptación o rechazo) admitirá la siguiente tabla de deci-


sión o consecuencias:
aceptar H0 rechazar H0
H0 es cierta acción correcta error tipo I; P(cometer e.t.I) = α
H0 es falsa error tipo II; P(cometer [Link]) = β acción correcta

A pesar de que un estudio riguroso del problema de contraste exigirı́a considerar los dos
tipos de error, y diseñar un procedimiento que redujera al máximo la probabilidad de cometer
tanto uno como otro, aquı́ vamos a considerar únicamente el error tipo I y su probabilidad. Es
decir, nos vamos a centrar en el error consistente en rechazar una hipótesis que, sin embargo,
es cierta.

A la probabilidad de cometer un error tipo I la designamos por α y la llamaremos nivel de


significación del contraste (será siempre un dato establecido a priori): α = P (T ∈ R1 /θ = θ0 ).
Será, por tanto, la probabilidad de que siendo cierta H0 , el valor del estadı́stico caiga en la
región crı́tica (no pertenezca a la región de aceptación).
Será precisamente este nivel de significación junto con la distribución muestral del es-
tadı́stico los que determinarán el contraste: conocidos ambos podemos determinar R0 y a
partir de ella contrastar la hipótesis.

Como vimos en el capı́tulo 4, la distribución muestral de los estadı́sticos depende de la


distribución poblacional y, por tanto, también de los valores que tomen los parámetros de
la población. En consecuencia, la distribución de T dependerá del valor de θ y podemos
construir la distribución de T condicionada a que θ = θ0 .
Conocida esta distribución y una vez prefijado el nivel de significación, tendremos que
delimitar la región R0 ≡]a, b[ que verifique que

P (T ∈
/ R0 /θ = θ0 ) = α
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 23

Determinar esta región (intervalo) es un problema análogo, pero recı́proco, al de la construc-


ción de un intervalo de confianza 1 − α. Es decir,

P (T ∈
/ R0 /θ = θ0 ) = α ≡ P (T ∈ R0 /θ = θ0 ) = 1 − α

Si en la construcción del intervalo de confianza nos interesaba que la amplitud del inter-
valo fuera la menor posible para disponer de estimaciones más precisas, aquı́ nos interesa que
los intervalos externos (región crı́tica o de rechazo), ] − ∞, a] y [b, +∞[, sean lo más grande
posible para poner más difı́cil la aceptación de la hipótesis. Y si la región crı́tica debe ser
la mayor posible, la de aceptación, ]a, b[, deberá ser la menor posible. En el caso de distri-
buciones simétricas y unimodales, el intervalo de menor amplitud y mayor densidad media
de probabilidad, de todos los intervalos que cumplen que P (T ∈ I) = 1 − α, es el intervalo
centrado en la media.
Una vez determinadas las regiones crı́tica y de aceptación ( una vez determinados a y
b), el contraste se realiza de la manera siguiente: si con los datos muestrales, el valor del
estadı́stico T es tal que
• T ∈]a,
/ b[ entonces rechazamos hipótesis nula.
• T ∈]a, b[ entonces aceptamos hipótesis nula.

Los contrastes correspondientes se obtendrán considerando el estadı́stico y viendo si el


valor obtenido pertenece o no a la región de aceptación.

1.4.4. Contrastes de una cola.


En el apartado anterior hemos visto los contrastes de una hipótesis nula simple H0 : θ = θ0
que se enfrentaba a la hipótesis alternativa compuesta H1 : θ ̸= θ0 . Sin embargo, en muchos
casos prácticos concretos nos interesará contrastar H0 : θ = θ0 frente a la alternativa de que
θ > θ0 ó bien de que θ < θ0 :

cuando nos interese saber si podemos considerar que θ = θ0 y nos vaya a reportar las
mismas, o aún mejores consecuencias el que θ < θ0 , nos interesará hacer el contraste
}
H0 : θ = θ0
H1 : θ > θ 0

cuando nos interese saber si podemos considerar que θ = θ0 y nos vaya a reportar las
mismas, o aún mejores consecuencias el que θ > θ0 , nos interesará hacer el contraste
}
H0 : θ = θ0
H1 : θ < θ 0

En estos dos nuevos casos, la base teórica para la decisión de aceptación o rechazo de H0
será la misma que en el caso ya estudiado de H0 : θ = θ0 frente a H1 : θ ̸= θ0 . Pero va a
diferir la construcción de la región crı́tica y la región de aceptación.
Dado un nivel de significación prefijado, trabajaremos con la distribución muestral de un
estadı́stico adecuado T , cuya distribución dependa del parámetro sujeto a contraste, para
determinar la región crı́tica y de aceptación. Como en el caso ya estudiado, la región de
24 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

aceptación debe verificar que P (T ∈ R0 /θ = θ0 ) = 1 − α, y la región crı́tica debe cumplir


que P (T ∈/ R0 /θ = θ0 ) = α, siendo ambas complementarias.

En el apartado anterior, rechazar H0 : θ = θ0 suponı́a aceptar H1 : θ ̸= θ0 , y teniendo


en cuenta que la mayor parte de las distribuciones de los estadı́sticos están centradas en el
aunténtico valor del parámetro, tenemos que un resultado muestral alejado de la zona central
tanto por la izquierda como por la derecha nos da cuenta de que θ debe ser significativamente
distinto de θ0 (por defecto o por exceso). El rechazo de H0 supone aceptar θ ̸= θ0 . Igual nos
da que lo más verosı́mil sea que θ > θ0 (los datos muestrales caen en la cola de la derecha)
que sea θ < θ0 (los datos muestrales caen en la cola de la izquierda).

Sin embargo, en el contraste: }


H0 : θ = θ0
H1 : θ < θ 0
que los datos muestrales caigan en la región crı́tica R1 nos lleva a considerar más verosı́mil
H1 y, evidentemente, sólo es más verosı́mil H1 frente a H0 si los datos muestrales difieren
significativamente por defecto de la zona central. Esta argumentación nos conduce a que
diseñemos una región crı́tica de “una sola cola” (cola de la izquierda). Ası́, por ejemplo, ante
un contraste para la media poblacional en una población normal con varianza poblacional
conocida: }
H0 : µ = µ 0
H1 : µ < µ 0
X n − µ0
si T = √ < −z1−α =⇒ rechazamos H0
σ/ n
X n − µ0
si T = √ > −z1−α =⇒ aceptamos H0
σ/ n
De forma análoga, en el contraste
}
H0 : θ = θ0
H1 : θ > θ 0

que los datos muestrales caigan en la región crı́tica R1 nos lleva a considerar más verosı́mil
H1 y, evidentemente, sólo es más verosı́mil H1 frente a H0 si los datos muestrales difieren
significativamente por exceso de la zona central. Esta argumentación nos conduce a que
diseñemos una región crı́tica de “una sola cola” (cola de la derecha). Ası́, por ejemplo, ante
un contraste para la media poblacional en una población normal con varianza poblacional
conocida: }
H0 : µ = µ 0
H1 : µ > µ 0
X n − µ0
si T = √ > z1−α =⇒ rechazamos H0
σ/ n
X n − µ0
si T = √ < z1−α =⇒ aceptamos H0
σ/ n
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 25

1.4.5. Nivel crı́tico de un contraste.


Como ya hemos visto, el nivel de significación α se decide antes de determinar el contraste
y representa el riesgo máximo admisible para rechazar H0 . Sin embargo, el nivel crı́tico α̂ se
define como el valor mı́nimo de α para rechazar H0 con el valor obtenido del estadı́stico en el
contraste. Por tanto, se calcula después de observar el valor del estadı́stico; supongamos que
T = k. Entonces
si H1 : θ > θ0 α̂ = P (T ≥ k)
si H1 : θ < θ0 α̂ = P (T ≤ k)
si H1 : θ ̸= θ0 α̂ = 2P (T ≥ |k|)

1.4.6. Potencia de un contraste.


La potencia de un contraste es la probabilidad de rechazar H0 siendo H0 falsa. Es decir,

1 − β = P ( rechazar H0 /H0 falsa ) = P (T ∈ R1 /θ ̸= θ0 )

Una región crı́tica es la mejor o más potente si, para un α dado, su potencia es mayor
que la de cualquier otra región crı́tica asociada a esa probabilidad α.

Ejemplo 2. Vamos a obtener tres regiones crı́ticas con probabilidad α = 0′ 1 y distinta


potencia.
Contrastar H0 : µ = 20 frente a H1 : µ = 23, sabiendo que la población se distribuye
N (µ, 225) y la muestra es de tamaño n = 25.

Sol. El estadı́stico que consideramos es X 25 ,→ N (µ, 9).

a) La región crı́tica es X ≥ ls /P (X ≥ ls ) = 0′ 1.
Bajo H0 : µ = 20 tenemos
ls −20
P (X ≥ ls ) = 0′ 1 ⇒ 1 − 0′ 1 = 0′ 9 = P (X ≤ ls ) = P (Z ≤ 3 ) = Φ(1′ 28) ⇒
ls −20
⇒ 3 = 1′ 28 ⇒ ls = 23′ 84
Bajo H1 : µ = 23 tenemos
23′ 84−23
P (X ≥ 23′ 84) = 1 − P (Z ≤ 3 ) = 1 − Φ(0′ 28) = 1 − 0′ 6103 = 0′ 3897 = 1 − β

b) La región crı́tica es X ≤ li /P (X ≤ li ) = 0′ 1.
Bajo H0 : µ = 20 tenemos
P (X ≤ li ) = Φ( li −20 ′
3 )=01⇒
li −20
3 = −1′ 28 ⇒ li = 16′ 16
Bajo H1 : µ = 23 tenemos

P (X ≥ 16′ 16) = 1 − Φ( 16 16−23
3 ) = 1 − Φ(−2′ 28) = 1 − 1 + 0′ 9887 = 0′ 9887 = β

c) La región crı́tica es

X ≤ li y X ≥ ls /P (X ≤ li ) + P (X ≥ ls ) = 0′ 1 ⇒ P (X ≤ li ) = P (X ≥ ls ) = 0′ 05

Bajo H0 : µ = 20 tenemos
26 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

P (X ≥ ls ) = 0′ 05 ⇒ P (X ≤ ls ) = 1 − 0′ 05 = 0′ 95 ⇒ Φ( ls −20 ′ ′
3 ) = 0 95 = Φ(1 645) ⇒
ls −20
⇒ 3 = 1′ 645 ⇒ ls = 24′ 935
P (X ≤ li ) = 0′ 05 ⇒ Φ( li −20 ′ ′ ′
3 ) = 0 05 = Φ(−1 645) ⇒ li = 15 065
Bajo H1 : µ = 23 tenemos
′ ′
P (15′ 065 ≤ X ≤ 24′ 935) = Φ( 24 935−23
3 ) − Φ( 15 065−23
3 ) = Φ(0′ 65) − Φ(−2′ 65) =
= 0′ 7422 − 1 + 0′ 9960 = 0′ 7382 = β

Por tanto, para α = 0′ 1, la primera región es la más potente entre las tres. (Figura (1))

1.4.7. Relaciones entre α, β y n.


1. Supongamos fijo el tamaño muestral n. Entonces si aumentamos α, disminuye β; y si
disminuye α aumentará β.
Nuestro deseo es que α y β se mantengan pequeños. Esto se consigue aumentando n.

2. Fijamos α tan pequeño como queramos y determinamos n de forma que β alcance


un valor tan pequeño como interese. Es decir, cuando crece n y para un mismo α, el
contraste es más potente.
Por un razonamiento similar al utilizado en el Ejemplo 2 relacionado con la potencia de
un contraste, podemos obtener la siguiente expresión para calcular el tamaño muestral
n necesario para trabajar con un α y β determinados:

(z1−α − zβ )2 2
n= ·σ
(µ1 − µ0 )2

Ejemplo 3. Supongamos que X ,→ N (µ, 162 ). Vamos a calcular el tamaño muestral necesario
para realizar un contraste con un nivel de significación α = 0′ 05 y dos valores distintos de β
(β = 0′ 2 y β = 0′ 07).

Tenemos el contraste H0 : µ = 60(= µ0 ) frente a H1 : µ = 62(= µ1 ).


Como α = 0′ 05. Entonces z1−α = z0′ 95 = 1′ 645.
Si imponemos que β = 0′ 2. Entonces zβ = z0′ 2 = −0′ 84.
Sustituyendo en la expresión anterior para calcular n, obtendremos:

(1′ 645 − (−0′ 84))2


n= · 256 = 395′ 2144 ≈ 396
(62 − 60)2

Si quisieramos β = 0′ 07, entonces zβ = z0′ 07 = −1′ 475 y al sustituir obtenemos:

(1′ 645 − (−1′ 475))2


n= · 256 = 623′ 0016 ≈ 624
(62 − 60)2
Observamos que para disminuir la probabilidad de cometer error tipo II (es decir, para
obtener contrastes más potentes), necesitamos muestras de mayor tamaño.
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 27

1.4.8. Relación entre contraste y estimación.


Suponemos H0 : θ = θ0 frente a H1 : θ ̸= θ0
Sea θ̂ estimación de θ tal que θ̂ se distribuye N (θ, var[θ̂]).
Si θ̂ ∈
/ R0 entonces rechazamos H0 . Si θ̂ ∈ R0 entonces aceptamos H0 .
√ √
El intervalo de confianza para θ es [θ̂ − z1− α2 var(θ̂), θ̂ + z1− α2 var(θ̂)]
Si θ0 pertenece al intervalo, aceptaremos H0 ; si no pertenece al intervalo rechazamos H0 .

Ejemplo 4. Sea X ,→ N (µ, 100). Consideramos una m.a.s. de tamaño n = 100 de la que
X 100 = 28 y el nivel de significación α = 0′ 05. Supongamos que nos piden contrastar:

H0 : µ = 23 frente a H1 : µ ̸= 23

a) Como la población es normal con varianza conocida, el estadı́stico de contraste es

X n − µ0
T = √ ,→ N (0, 1)
σ/ n

28−23

Sustituyendo los valores obtenemos T = 10/ 100
=5

Por ser el contraste bilateral, la región de aceptación es R0 =] − z1− α2 , z1− α2 [.


Como z1− α2 = z0′ 975 = 1′ 96, la región de aceptación es el intervalo R0 =] − 1′ 96, 1′ 96[.

El criterio de decisión es aceptar H0 si T ∈ R0 .


/ [−1′ 96, 1′ 96] =⇒ rechazamos H0 .
Como T = 5 ∈

b) El intervalo de confianza es µ ∈ [X n − z1− α2 √σn , X n + z1− α2 √σn ]


Sustituyendo los valores correspondientes tenemos
[28 − 1′ 96 · √10 , 28
100
+ 1′ 96 · 1] = [26′ 04, 29′ 96] al nivel de confianza del 95 %
Como puede verse, / [26′ 04, 29′ 96] =⇒ rechazamos H0 .
µ = 23 ∈

En ambos casos hemos llegado a la misma conclusión: rechazar H0 . 

1.4.9. Contrastes paramétricos


(Contraste de hipótesis sobre algunos parámetros)

Vamos a considerar los siguientes contrastes paramétricos con sus correspondientes es-
tadı́sticos, suponiendo que la población es normal o que trabajamos con muestra grande:

X n −µ
a) con σ 2 conocida, H0 : µ = µ0 T = σ/ n
√ 0 ,→ N (0, 1)

X n√−µ0
b) con σ 2 desconocida, H0 : µ = µ0 T = sn / n−1
,→ t(n − 1)
28 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

c) con varianzas conocidas (poblaciones independientes)

X n − Y n − D0
H0 : µx − µy = D0 T = √ ,→ N (0, 1)
σx2 σy2
n + m

d) con varianzas desconocidas pero iguales (poblaciones independientes)

X n − Y n − D0
H0 : µx − µy = D0 T =√ 2 ,→ t(n + m − 2)
nsn +ms2m 1 1
n+m−2 n ( + m )

e) para igualdad de medias (poblaciones relacionadas), Di = Xi − Yi

D − d0
con varianza de las diferencias conocida H0 : µx −µy = d0 T = σD ,→ N (0, 1)

n

D − d0
con varianza de las diferencias desconocida H0 : µx −µy = d0 T = ,→ t(n−1)
√sD
n−1

ns2n
f) para la varianza, H0 : σ 2 = σ02 T = σ02
,→ χ2 (n − 1)

s∗2
g) para la igualdad de varianzas, H0 : σx2 = σy2 T = x
s∗2
,→ F (n − 1, m − 1)
y

(La población X es la de mayor varianza muestral, y siempre se contrasta la alternativa


σx2 > σy2 )

En todos los casos podremos considerar contrastes unilaterales o bilaterales.

A continuación consideraremos las regiones de aceptación:


a) Para las distribuciones simétricas de la normal y t de Student:

• En los contrastes unilaterales a izquierda (H1 : θ < θ0 )


la región de aceptación será R0 =] − vc1−α , +∞[
• En los contrastes unilaterales a derecha (H1 : θ > θ0 )
la región de aceptación será R0 =] − ∞, vc1−α [
• En los contrastes bilaterales (H1 : θ ̸= θ0 )
la región de aceptación será R0 =] − vc1− α2 , +vc1− α2 [

b) Para las distribuciones χ2 y F de Snedecor:

• En los contrastes unilaterales a izquierda (H1 : θ < θ0 )


la región de aceptación será R0 =]vcα , +∞[
• En los contrastes unilaterales a derecha (H1 : θ > θ0 )
la región de aceptación será R0 =]0, vc1−α [
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 29

• En los contrastes bilaterales (H1 : θ ̸= θ0 )


la región de aceptación será R0 =]vc α2 , vc1− α2 [

donde vc es el valor crı́tico que buscaremos según la distribución que siga el estadı́stico y
el nivel de significación correspondiente.

Podemos considerar el siguiente guión para resolver los contrastes paramétricos:


1. Plantear el correspondiente contraste.
2. Elegir el estadı́stico de contraste y su distribución. Calcular el valor del estadı́stico.
3. Determinar la región crı́tica o la de aceptación, según el tipo de contraste y el nivel de
significación.
4. Regla de decisión: Si T ∈
/ R0 =⇒ rechazamos H0 .
5. Calcular el nivel crı́tico α̂.
6. Obtener el intervalo de confianza.

Ejemplo 4. Vamos a ver a continuación un ejemplo de cada uno de los contrastes pa-
ramétricos que hemos planteado anteriormente.

A) De 100 observaciones de una población normal con σ 2 = 4, se obtiene que la media


muestral es 6’5. Contrastar con un nivel de significación del 5 % la hipótesis nula de que
la media poblacional es 7.
Sol. Siguiendo el guión tenemos:
}
H0 : µ = 7
1.
H1 : µ ̸= 7
X n −µ 6′√
2. T = σ/ n
√ 0 ,→ N (0, 1) =⇒ T = 5−7
2/ 100
= −2′ 5
3. α = 0′ 05. Como el contraste es bilateral, la región de aceptación es
R0 =] − z1− α2 , z1− α2 [. Por tanto,
α
1− = 0′ 975 =⇒ z1− α2 = z0′ 975 = 1′ 96 Es decir, R0 =] − 1′ 96, 1′ 96[
2
4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = −2′ 5 ∈]
/ − 1′ 96, 1′ 96[ entonces rechazamos la hipótesis nula µ = 7
5. Nivel crı́tico:
α̂ = P (T ≤ −2′ 5) + P (T ≥ 2′ 5) = 1 − P (T ≤ 2′ 5) + 1 − P (T ≤ 2′ 5) =
= 2 − 2 · 0′ 9938 = 0′ 0124
6. Intervalo de confianza:
µ ∈ [6′ 5 − 1′ 96 √100
2
, 6′ 5 + 1′ 96 √100
2
] = [6′ 5 − 0′ 39, 6′ 5 + 0′ 39] = [6′ 11, 6′ 89]
Como se ve el valor 7 no pertenece al intervalo de confianza.
30 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

B) Se escoge a 17 individuos al azar y se les mide su estatura, resultando una estatura


media de 171 cm. y una desviación tı́pica de 5 cm. Contrastar la hipótesis de que la
estatura media nacional sea menor de 175 cm. con un nivel de confianza del 95 %.
Suponemos que la población sigue modelo normal.
Sol. Siguiendo el guión tenemos:
}
H0 : µ = 175
1.
H1 : µ < 175
X n√−µ0
2. T = sn / n−1
,→ t(n − 1) =⇒ T = 171−175

5/ 17−1
= −3′ 2
3. α = 0′ 05. Como el contraste es unilateral a izquierda, la región de aceptación es
R0 =] − t1−α (n − 1), +∞[. Por tanto,

1 − α = 0′ 95 =⇒ t1−α (n − 1) = t0′ 95 (16) = 1′ 746 Es decir, R0 =] − 1′ 746, +∞[

4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = −3′ 2 ∈]
/ − 1′ 746, +∞[ entonces rechazamos la hipótesis nula µ ≥ 175
5. Nivel crı́tico:
α̂ = P (T ≤ −3′ 2) = 1 − P (T ≤ 3′ 2) = (interpolando) = 1 − 0′ 996 = 0′ 004
6. Intervalo de confianza:
µ ∈ [171 − 2′ 12 √516 , 171 + 2′ 65] = [168′ 35, 173′ 65] siendo 2′ 12 = t0′ 975 (16)
Como se ve, el valor 175 no pertence al intervalo de confianza.

C) Se pasa un test a un grupo de niños y a otro de niñas, y se pretende averiguar si el


hecho de ser de distinto sexo tiene repercusión en los resultados medios, con un nivel
de riesgo de 0’05.

niños niñas
tamaño n=318 m=197
media 36 37
σ2 12 13

Sol. Siguiendo el guión tenemos:


}
H0 : µx = µy ≡ µx − µy = 0
1.
H1 : µx ̸= µy
n −Y m −D0
2. T = X√
,→ N (0, 1) =⇒ T = 36−37−0

12 13
= −3′ 105
σx2 σ2 + 197
n
+ my 318

3. α = 0′ 05. Como el contraste es bilateral, la región de aceptación es


R0 =] − z1− α2 , z1− α2 [. Por tanto,

α
1− = 0′ 975 =⇒ z1− α2 = z0′ 975 = 1′ 96 Es decir, R0 =] − 1′ 96, 1′ 96[
2
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 31

4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = −3′ 105 ∈]
/ − 1′ 96, 1′ 96[ entonces rechazamos la hipótesis nula µx = µy
5. Nivel crı́tico:
α̂ = 2 · P (T ≥ | − 3′ 105|) = 2(1 − P (T ≤ 3′ 105)) = 2(1 − 0′ 999) = 0′ 002
6. Intervalo de confianza:

µx − µy ∈ [36 − 37 − 1′ 96 12
318 + 197 , −1
13
+ 1′ 96 · 0′ 3221] =
= [−1 − 0′ 6313, −1 + 0′ 6313] = [−1′ 6313, −0′ 3687]
Como podemos observar, el valor cero no pertenece al intervalo. Por tanto, el ser de
distinto sexo tiene repercusión en los resultados.

D) Se han elegido aleatoriamente 61 alumnos de Psicologı́a y 121 alumnos de Informática


que cursan todos la asignatura de Estadı́stica. Las notas finales han sido:

x̄ sn−1 = s∗ tamaño
Psicologı́a 6’6 1’5 61
Informática 6’2 1’8 121

¿Hay evidencia para afirmar que los alumnos de ambas titulaciones tienen la misma
nota media?
Sol. Como ambos tamaños muestrales son mayores de 30 podemos suponer normalidad.
No tenemos información sobre las varianzas poblacionales; por tanto vamos a contrastar
primero si podemos suponerlas iguales (para poder realizar después el contraste sobre
las medias).
Como la muestra de Informática tiene mayor varianza muestral, esa será la población
X y n = 121 y m = 61.
}
H0 : σx2 = σy2
1.
H1 : σx2 > σy2
s∗2 3′ 24
2. T = x
s∗2
,→ F (n − 1, m − 1) =⇒ T = 2′ 25 = 1′ 44
y

3. Como el contraste es unilateral a derecha, la región de aceptación es


R0 = [0, F1−α (n − 1, m − 1)[.
Como no se especifica nivel de significación, consideraremos varios:

a) Si α = 0′ 1 =⇒ F1−α (n − 1, m − 1) = F0′ 9 (120, 60) = 1′ 35.


Es decir, R0 = [0, 1′ 35[
b) Si α = 0′ 05 =⇒ F1−α (n − 1, m − 1) = F0′ 95 (120, 60) = 1′ 47.
Es decir, R0 = [0, 1′ 47[
c) Si α = 0′ 025 =⇒ F1−α (n − 1, m − 1) = F0′ 975 (120, 60) = 1′ 58.
Es decir, R0 = [0, 1′ 58[
32 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = 1′ 44, para valores de α ≤ 0′ 05, T ∈ R0 y, por tanto, aceptamos la
hipótesis de igualdad de varianzas.

Estamos en condiciones de realizar el contraste sobre la igualdad de medias.


}
H0 : µx = µy ≡ µx − µy = 0
1.
H1 : µx ̸= µy
√ X n −Y m −D0 6′ 2−6′ 6−0
2. T = ,→ t(n + m − 2) =⇒ T = √
120·3′ 24+60·2′ 25 1 1
= −1′ 4932
ns2 2
n +msm ( 1 + 1 ) ( 121 + 61 )
121+61−2
n+m−2 n m

Hemos utilizado la igualdad ns2n = (n − 1)s∗2

3. Trabajamos con el valor de α que hemos obtenido en el contraste de igualdad de


varianzas.
α = 0′ 05. Como el contraste es bilateral, la región de aceptación es
R0 =] − t1− α2 (n + m − 2), t1− α2 (n + m − 2)[. Por tanto,
α
1− = 0′ 975 =⇒ t1− α2 (n+m−2) = t0′ 975 (180) ≈ 1′ 972 Es decir, R0 =]−1′ 972, 1′ 972[
2

4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = −1′ 4932 ∈] − 1′ 972, 1′ 972[ entonces aceptamos la hipótesis nula de
que las medias poblacionales son iguales (µx = µy ).
5. Nivel crı́tico:
α̂ = 2 · P (T ≥ | − 1′ 4932|) = 2(1 − P (T ≤ 1′ 4932)) = (interpol) = 2(1 − 0′ 93) = 0′ 14
6. Intervalo de confianza:
µx − µy ∈ [6′ 2 − 6′ 6 − 1′ 972 · 0′ 2679, −0′ 4 + 0′ 5283] = [−0′ 9283, 0′ 1283]
Notemos que el intervalo contiene al cero. Por tanto, se acepta la hipótesis de que los
alumnos tienen la misma nota media.

E) Un psicólogo diferencial está investigando sobre la importancia de la herencia y del


medio en la génesis de las diferencias individuales en distintos comportamientos. En
uno de sus trabajos obtuvo una muestra de 5 parejas de gemelos monocigóticos, que
por circunstancias familiares habı́an sido separados antes de los 2 años, siendo enviado
cada uno de los miembros del par a hogares diferentes:
Grupo 1: Educados en ambiente socio-económico bajo o medio-bajo.
Grupo 2: Educados en ambiente clase media-media o media-alta.
Los sujetos se encuentran en los últimos cursos de la escolaridad obligatoria e interesa
ver si el rendimiento académico (X) medio es mejor en el grupo 2 a un nivel de signifi-
cación del 5 %. Se les pasa a los 10 sujetos una escala objetiva de rendimiento general
y las puntuaciones obtenidas son: (suponemos poblaciones normales)
1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 33

X1i 5 14 17 18 23
X2i 8 18 14 20 25

Sol. Tenemos hipótesis sobre la diferencia de medias con varianza poblacional descono-
cida en muestras relacionadas. Nos hará falta calcular el valor de las diferencias para
cada par de valores (Di ), ası́ como la media y varianza de esa variable (D̄ y s2D )

Di -3 -4 3 -2 -2 -8
Di − D̄ -1’4 -2’4 4’6 -0’4 -0’4 0
(Di − D̄)2 1’96 5’76 21’16 0’16 0’16 29’2

Por tanto, D̄ = −1′ 6 s2D = 5′ 84 sD = 2′ 4166


Siguiendo el guión tenemos:
}
H0 : µ1 − µ2 = D = 0
1.
H1 : µ1 − µ2 = D < 0
−1′ 6−0
2. T = D−d
√ 0
sD / n−1
,→ t(n − 1) =⇒ T = 2′ 4166/ √
5−1
= −1′ 3242
3. α = 0′ 05. Como el contraste es unilateral a izquierda, la región de aceptación es
R0 =] − t1−α (n − 1), +∞[. Por tanto,

1 − α = 0′ 95 =⇒ t1−α (n − 1) = t0′ 95 (4) = 2′ 132 Es decir, R0 =] − 2′ 132, +∞[

4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = −1′ 3242 ∈] − 2′ 132, +∞[ entonces aceptamos la hipótesis nula de que
las medias poblacionales son iguales (µ1 − µ2 = D = 0).
5. Nivel crı́tico:
α̂ = P (T ≤ −1′ 3242) = 1 − P (T ≤ 1′ 3242)
Como t0′ 85 (4) = 1′ 19 y t0′ 90 (4) = 1′ 53 podemos afirmar que
1 − 0′ 9 = 0′ 1 < α̂ < 0′ 15 = 1 − 0′ 85
6. Intervalo de confianza:

µ1 − µ2 = D ∈ [−1′ 6 − 2′ 776 2 √
4166
4
, −1′ 6 + 3′ 3542] = [−4′ 954, 1′ 754]
siendo 2′ 776 = t0′ 975 (4)
Como podemos ver, el intervalo contiene al cero (por tanto, se acepta la hipótesis de
que no hay diferencias en el rendimiento escolar).

F) En una experiencia de laboratorio con 61 individuos divididos en 5 grupos de 10 y un


grupo de 11, se han obtenido unos valores estadı́sticos que están próximos en su mayorı́a
a los obtenidos en estudios anteriores por otros investigadores y con muestras mayores.
Hemos promediado varianzas, y estimamos que σ 2 = 25. En nuestra muestra hemos
obtenido s2n = 36.
¿Es compatible este resultado con la hipótesis de que la variabilidad es la misma?
(α = 0′ 05)
34 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS

Sol. Siguiendo el guión tenemos:


}
H0 : σ 2 = 25
1.
H1 : σx2 ̸= 25
ns2n
2. T = σ02
,→ χ2 (n − 1) =⇒ T = 61·36
25 = 87′ 84
3. α = 0′ 05. Como el contraste es bilateral, la región de aceptación es
R0 =]χ2α (n − 1), χ21− α (n − 1)[. Por tanto,
2 2

α
= 0′ 025 =⇒ χ2α (n − 1) = χ20′ 025 (60) = 40′ 5
2 2

α
1− = 0′ 975 =⇒ χ21− α (n − 1) = χ20′ 975 (60) = 83′ 3
2 2

Es decir, R0 =]40′ 5, 83′ 3[.


4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = 87′ 84 ∈]40
/ ′ 5, 83′ 3[ entonces rechazamos la hipótesis nula σx2 = 25
5. Nivel crı́tico:
El contraste es bilateral, pero calcularemos α̂ = P (T ≥ 87′ 84) porque la distribución
χ2 no es simétrica.
α̂ = P (T ≥ 87′ 84) = 1 − P (T ≤ 87′ 84) = 1 − 0′ 98835 = 0′ 01165
88′ 4−83′ 3 88′ 4−87′ 84
Interpolando: 0′ 99−0′ 975 = 0′ 99−p ⇒ p = 0′ 98835
6. Intervalo de confianza:
σ 2 ∈ [ χ2 61·36 , 61·36 ] = [ 2196 2196 ′ ′
(60) χ2 (60) 83′ 3 , 40′ 5 ] = [26 36, 54 22]
0′ 975 0′ 025

Como se ve, el 25 no pertenece al intervalo. Por tanto, la variabilidad no es la misma.

G) Contrastar la hipótesis de que dos poblaciones tienen la misma dispersión con un nivel
de significación del 1 %. Sabemos que la desviación tı́pica de una muestra de tamaño
25 realizada sobre la primera población es 12 y que en una muestra de tamaño 31 de
la segunda población, la desviación tı́pica es 7. Considerar que ambas poblaciones son
normales.
Sol. Teniendo en cuenta que es un contraste de igualdad de varianzas, consideramos
como población X la que tiene mayor varianza muestral. Tenemos n = 25 y m = 31.
La cuasivarianza de la población X es s∗2
x =
n
n−1 · s2x = 25
24 · 144 = 150.
La cuasivarianza de la población Y es s∗2
y =
m
m−1 · s2y = 31
30 · 49 = 50′ 6333.
Siguiendo el guión tenemos:
}
H0 : σx2 = σy2
1.
H1 : σx2 > σy2
s∗2
2. T = x
s∗2
,→ F (n − 1, m − 1) =⇒ T = 150
50′ 6333 = 2′ 9625
y

3. α = 0′ 01. Como el contraste es unilateral a derecha, la región de aceptación es


1.4. CONTRASTE DE HIPÓTESIS ESTADÍSTICAS 35

R0 = [0, F1−α (n − 1, m − 1)[. Por tanto,

1−α = 0′ 99 =⇒ F1−α (n−1, m−1) = F0′ 99 (24, 30) = 2′ 4689 Es decir, R0 = [0, 2′ 4689[

4. Regla de decisión: si T ∈
/ R0 =⇒ rechazamos H0 .
Como T = 2′ 9625 ∈
/ [0, 2′ 4689[ entonces rechazamos la hipótesis nula σx2 = σy2
5. Nivel crı́tico:
α̂ = P (T > 2′ 9625) = 1 − P (T ≤ 2′ 9625) < 1 − 0′ 995 = 0′ 005
ya que F0′ 995 (24, 30) = 2′ 73
6. Intervalo de confianza:
σx2
σy2
∈ [ 50150
′ 63 ·
1 150
F0′ 995 (24,30) , 50′ 63 · 1
F0′ 005 (24,30) ] ′ 63 ·
= [ 50150 1 150
2′ 73 , 50′ 63 · 2′ 87] = [1′ 08, 8′ 5]
Como se ve, el 1 no pertenece al intervalo (por tanto, las varianzas no podemos supo-
nerlas iguales).
36 CAPÍTULO 1. INFERENCIA Y CONTRASTE DE HIPÓTESIS
Capı́tulo 2

Análisis de Varianza. Modelo de un


factor

2.1. Introducción.
El análisis de la varianza podemos considerarlo como una extensión de la diferencia de
medias a situaciones en las que existen más de dos grupos.
Veamos primero un ejemplo del tipo de problemas que resolveremos en este tema.

Ejemplo 1: Se han aplicado tres métodos de enseñanza (M1 , M2 , M3 ) a tres grupos


de alumnos de Psicoestadı́stica, formados por 8, 6 y 12 alumnos, respectivamente. Las
puntuaciones obtenidas por dichos alumnos al realizar un examen son:

Método M1 6 7 5 6 5 8 4 7
Método M2 10 9 9 10 10 6
Método M3 3 4 8 3 7 6 3 6 4 7 6 3

La pregunta que le interesa al investigador es: ¿Son los tres métodos igual de eficaces?.
(Lo resolveremos al final del capı́tulo)

En este ejemplo podemos distinguir dos tipos de variables:

variable independiente. Es de tipo categórico (define categorı́as o grupos) y la fija


el investigador: método de enseñanza (hemos considerado tres métodos).
variable dependiente. Es de tipo cuantitativo (numérica) y es la que deseamos com-
parar en las diferentes categorı́as de la otra: puntuaciones del examen.

Las comparaciones se harán en función de la media de la variable puntuación en cada


uno de los grupos determinados por el método de enseñanza.

DEF. El Análisis de Varianza (ANOVA) es el conjunto de técnicas estadı́sticas que per-


miten analizar la influencia de una o varias variables independientes sobre una variable de-
pendiente.

37
38 CAPÍTULO 2. ANÁLISIS DE VARIANZA. MODELO DE UN FACTOR

DEF. Llamamos factor a la variable independiente (categórica) que determina los grupos
que estamos comparando.
DEF. Llamamos variable respuesta a la variable dependiente (cuantitativa) que medimos
u observamos en cada sujeto.
DEF. Llamaremos niveles del factor a los diferentes valores que toma. También se les
denomina tratamientos.

A pesar de que los modelos de ANOVA son muy variados, puede obtenerse una clasificación
bastante simple atendiendo a los siguientes criterios:

1. Número de factores. El modelo de ANOVA utilizado para analizar los datos en un


diseño con una variable independiente lo denominaremos ANOVA de un factor; si tene-
mos dos variables independientes, lo denominamos ANOVA de dos factores, etc. Puede
también denominarse análisis factorial de la varianza a la generalización del análisis
unidireccional de la varianza para el caso de dos o más variables independientes.

2. Tipo de aleatorización. Aleatorización es el término utilizado para denominar el proceso


consistente en asignar al azar las unidades experimentales (generalmente sujetos) a cada
uno de los niveles del factor. La aleatorización puede realizarse de diferentes formas.

a) Si cada sujeto, uno a uno, es asignado al azar a cada uno de los niveles del factor,
hablamos de ANOVA completamente aleatorizado. (Este tipo de diseño con un solo
factor, lo estudiaremos en este capı́tulo. Cuando tengamos dos factores, lo veremos
en el capı́tulo 10)
b) Si sospechamos que alguna variable extraña puede alterar las conclusiones del
experimento, podemos ejercer sobre ella un control directo formando lo que se
denominan bloques. El número de bloques es arbitrario (puede oscilar entre un
mı́nimo de dos y un máximo de N/J, siendo N el tamaño total de la muestra y J
el número de niveles del factor). El ANOVA se denomina aleatorizado en bloques.
c) Un caso extremo de bloqueo es aquel en el que cada bloque está formado por un
único sujeto y a todos y cada uno de los sujetos se les aplican todos y cada uno de
los niveles de la variable independiente. Es lo que se denomina diseño intrasujeto,
y el ANOVA que permite analizar los datos obtenidos con este tipo de diseño se
denomina ANOVA de medidas repetidas.
(Estos dos últimos tipos de diseño se resuelven de la misma manera y los estudia-
remos en el capı́tulo 9)

3. Tipo de muestreo efectuado sobre los niveles de los factores. Un factor es, en general,
una variable controlada por el propio experimentador. Sus valores o niveles podrán ser
muchos o pocos, y se pueden establecer de dos formas diferentes:

a) fijando sólo aquellos niveles del factor que realmente estamos interesados en es-
tudiar. Entonces el modelo de ANOVA es de efectos fijos o sistemático. (Son los
únicos que vamos a estudiar en este curso)
b) seleccionando aleatoriamente un conjunto de niveles de entre todos los posibles
niveles del factor. Entonces el modelo de ANOVA es de efectos aleatorios.
2.2. ANOVA DE UN FACTOR COMPLETAMENTE ALEATORIZADO. 39

Los utilizados con mayor frecuencia en la investigación psicológica son los de efectos
fijos, pero existen situaciones concretas donde resultará más apropiado recurrir a un
modelo de efectos aleatorios. Veamos un ejemplo:

Es posible que la eficacia de un determinada terapia venga condicionada por las ca-
racterı́sticas personales del terapeuta que la aplica. (No porque haya caracterı́sticas
conocidas que determinen tal efecto sino, simplemente, porque distintos terapeutas
obtienen resultados diferentes). Podemos seleccionar aleatoriamente unos pocos te-
rapeutas (no necesitamos seleccionarlos a todos) y asignar una muestra aleatoria de
pacientes a cada uno de ellos. Los resultados del experimento nos informarán de si
la variable “tipo de terapeuta” se relaciona con los resultados de la terapia.

2.2. ANOVA de un factor completamente aleatorizado.


Comenzaremos estudiando el modelo de ANOVA más simple de todos, el ANOVA con un
factor fijo, completamente aleatorizado. La notación y estructura de los datos es la siguiente:

A= factor; Aj = nivel j del factor A, donde j = 1, . . . , J y J es el número de niveles del


factor

Y = variable respuesta; Yij será el valor observado de la variable respuesta en el sujeto


i-ésimo del nivel j del factor

nj = tamaño de la muestra (número de observaciones) en el nivel j del factor;


N = n1 + n2 + . . . + nJ es el número total de datos

Si n1 = n2 = . . . = nJ decimos que el diseño es balanceado o equilibrado.

Niv. factor A1 A2 ··· AJ


Sujeto 1 Y11 Y12 ··· Y1J
Sujeto 2 Y21 Y22 ··· Y2J
.. .. .. .. ..
. . . . .
Sujeto nj Yn1 1 Yn2 2 ··· YnJ J

Sea Y la variable respuesta sobre la cual obtenemos J muestras correspondientes a las J


categorı́as del factor considerado. Para poder aplicar el ANOVA de una vı́a tendremos que
suponer, entre otras, las siguientes hipótesis previas:

a) Normalidad. Las variables en cada nivel (columna) siguen una distribución normal con
media µj .

b) Homegeneidad de varianzas u homocedasticidad. La varianza (σ 2 ) es la misma en cada


nivel del factor.

Yij → N (µj , σ 2 ) para cualquier i, j


40 CAPÍTULO 2. ANÁLISIS DE VARIANZA. MODELO DE UN FACTOR

Es decir, todas las muestras proceden de poblaciones con la misma varianza, pero desco-
nocemos, en principio, si las medias serán todas iguales. Esto es precisamente lo que queremos
contrastar.

La expresión del modelo de ANOVA con un factor fijo, completamente aleatorizado es:

Yij = µ + αj + Eij

Yij es la puntuación del sujeto i bajo el tratamiento j.


µ es la media poblacional total.
αj representa el efecto del j-ésimo nivel del factor. Entonces µj = µ + αj
Eij representa la parte especı́fica de cada sujeto y verifica N (0, σ 2 ).
La hipótesis a contrastar es que el factor A no influye en la media de Y . Esto puede
escribirse:

H0 : µ1 = µ2 = ... = µJ = µ equivale H0 : α1 = α2 = ... = αJ = 0

2.3. Estimadores de los parámetros y estadı́stico de contraste.


Los parámetros son µ, µj y αj , y sus correspondientes estimadores serán:

1 ∑∑
J nj
µ̂ = Ȳ.. = Yij
N
j=1 i=1

1 ∑
nj
¯
µ̂j = Y.j = Yij
nj
i=1

α̂j = Y¯.j − Ȳ..


La idea para obtener el estadı́stico de contraste es descomponer la variabilidad total (la
varianza) en dos componentes aditivos, uno que mide la variabilidad entre los niveles del
factor y otro que mide la variabilidad dentro de cada nivel del factor.

La variabilidad total de la muestra viene dada por la cuasivarianza muestral total:

1 ∑∑
J nj
s∗2 = (Yij − Ȳ.. )2
N −1
j=1 i=1

Si le quitamos el denominador, sigue midiendo la variabilidad total y a ese sumatorio lo


denominamos Suma de Cuadrados Total (SCT). Se demuestra que:


J ∑
nj

J ∑
nj

J
(Yij − Ȳ.. ) =
2
(Yij − Ȳ.j )2 + nj (Ȳ.j − Ȳ.. )2
j=1 i=1 j=1 i=1 j=1
| {z } | {z } | {z }
Q1 =SCT Q2 =SCR Q3 =SCE
2.3. ESTIMADORES DE LOS PARÁMETROS Y ESTADÍSTICO DE CONTRASTE. 41

el primer término de la suma mide la variabilidad dentro de los niveles del factor, es
decir, la variabilidad no explicada por el factor. Lo denominamos Suma de Cuadrados
Residual o intragrupos, SCR. Representa la variabilidad de las puntuaciones de cada
muestra respecto a su propia media.

el segundo sumando mide la variabilidad entre los niveles del factor, es decir, la varia-
bilidad explicada por el factor. Lo denominaremos Suma de Cuadrados Entregrupos,
SCE. Representa la variabilidad de las medias de los grupos respecto a la media total.

Para poder comparar las sumas de cuadrados, vamos a convertirlas en cuasivarianzas y


para ello tenemos que dividir las sumas de cuadrados por el número de sumandos.

DEF. Llamaremos grados de libertad al número de sumandos de cada suma.

DEF: Definimos media cuadrática como la suma de cuadrados dividida por sus correspon-
dientes grados de libertad. Obtenemos tres medias cuadráticas:
SCT
Media cuadrática total M CT =
N −1
SCR
Media cuadrática residual M CR =
N −J
SCE
Media cuadrática entregrupos M CE =
J −1

Teniendo en cuenta que una media cuadrática es un estimador de la varianza poblacio-


nal (σ 2 ), si H0 es cierta (no influye el factor) se tiene que tanto M CE como M CR serán
estimadores insesgados de σ 2 .
Se demuestra que ambos estimadores son independientes y se distribuyen según una χ2
(como suponı́amos que los Yij siguen una distribución normal, las sumas de cuadrados son
sumas de cuadrados de normales tipificadas y el número de sumandos lo indican los grados
de libertad). Bajo H0 todas las variabilidades son iguales y se tiene

(N − 1)M CT (J − 1)M CE (N − J)M CR


→ χ2 (N − 1) → χ2 (J − 1) → χ2 (N − J)
σ2 σ2 σ2

El estadı́stico de contraste que se define es


M CE
F = → F (J − 1, N − J)
M CR
que es cociente de variables χ2 divididas por sus grados de libertad. Por tanto, sigue una dis-
tribución F de Snedecor con (J −1, N −J) grados de libertad en el numerador y denominador,
respectivamente.
Se cumple siempre que M CR ≤ M CE y en consecuencia la región de rechazo es de una
cola:
R1 = [F1−α (J − 1, N − J), +∞[
42 CAPÍTULO 2. ANÁLISIS DE VARIANZA. MODELO DE UN FACTOR

siendo F1−α (J − 1, N − J) el valor crı́tico de una F de Snedecor que deja por debajo un área
de probabilidad 1 − α.
Si la varianza entregrupos es significativamente mayor que la varianza del error (residual)
se admite que hay diferencia entre los grupos, de lo contrario, se acepta la hipótesis nula.
El que sea significativamente mayor o no, se determina por la F , según que ésta sea o no
significativa.

2.4. Tabla ANOVA y cálculos.


A la hora de calcular las sumas de cuadrados, podemos hacerlo de una forma más sencilla.
Se demuestra que:
∑J ∑nj
1 ∑∑
J nj
SCT = Yij − (
2
Yij )2 = a − b
N
j=1 i=1 j=1 i=1


J
1 ∑
nj
1 ∑∑
J nj
SCE = ( Yij ) − (
2
Yij )2 = c − b
nj N
j=1 i=1 j=1 i=1


J ∑
nj

J
1 ∑
nj
SCR = SCT − SCE = Yij2 − ( Yij )2 = a − c
nj
j=1 i=1 j=1 i=1

Por tanto, solo nos hace falta calcular tres cantidades: la suma de todos los cuadrados
(para calcular a), el cuadrado de la suma de todo (para calcular b) y la suma de los cuadrados
de la suma de las columnas (para calcular c).

La tabla resumen del ANOVA con un factor fijo, completamente aleatorizado es la si-
guiente:

Fuente variación Sumas cuadrados Grados libertad Medias cuadráticas Estadı́stico


FV SC gl MC F

Entre grupos SCE J −1 SCE


J−1
M CE
M CR

Residual SCR N −J SCR


N −J

Total SCT N −1

2.5. Hipótesis del modelo.


Para poder aplicar cualquier modelo de ANOVA a unos datos se deben cumplir unos
determinados requisitos, sin embargo el poder de la prueba permite, por lo general, un mode-
rado incumplimiento de estos requisitos. Los supuestos básicos que deben cumplir los datos
son los siguientes:
2.6. COMPROBACIÓN DE LA HOMOCEDASTICIDAD. 43

Condición de medida. Los datos deben estar medidos, al menos, en escala de intervalo.

Independencia. Cada observación debe ser independiente de las restantes de su mismo


grupo y de las del resto de los grupos. Si dudamos de la independencia de las observa-
ciones se puede aplicar un contraste no paramétrico de aleatoriedad.

Normalidad. Las observaciones de cada tratamiento o grupo deben constituir una mues-
tra aleatoria extraı́da de una población normal. Es recomendable trabajar con tamaños
muestrales moderadamente grandes para garantizar, incluso en las poblaciones que se
alejan de la normalidad, un comportamiento aceptable del estadı́stico F . También se
puede contrastar la hipótesis de normalidad con una prueba de bondad de ajuste.

Homocedasticidad. Las observaciones deben ser extraı́das de poblaciones con la misma


varianza. Conviene contrastar previamente la igualdad de varianzas, mediante alguna
de las siguientes pruebas: la de Levene (la más robusta), la C de Cochran, la de Hartley
y la B de Bartlett-Box.

Aditividad. Necesario en los modelos de bloques o medidas repetidas, y se refiere a que


la interacción entre los tratamientos (el factor) y los sujetos debe ser nula, es decir, que
el efecto de los tratamientos se considera independiente de los sujetos o bloques a los
que se aplica. Utilizaremos para contrastarla la Prueba de no aditividad de Tukey.

2.6. Comprobación de la homocedasticidad.

Referente a las pruebas de homocedasticidad sólo veremos la de Bartlett, pero saber que
las de Cochran y Hartley necesitan diseños balanceados.

Prueba de Bartlett-Box. Esta prueba se puede aplicar tanto en diseños balanceados


como no balanceados; supone que los grupos son muestras independientes y aleatorias, ex-
traı́das de una población normal.
Si llamamos σj2 a la varianza dentro del nivel j, la hipótesis que queremos contrastar es
que las varianzas son todas iguales frente a la alternativa de que alguna es distinta. Podemos
escribirlo:
H0 : σ12 = σ22 = . . . = σJ2 frente a H1 : no H0
Denotamos por s∗2
j a la cuasivarianza muestral en cada nivel del factor

1 ∑
nj
s∗2 = (Yij − Ȳ.j )2
j
nj − 1
i=1

Definimos:
∑J
j=1 (nj − 1)s∗2 ∑
J

(nj − 1)logs∗2
j
C = 2 3026[(N − J)log − j ]
N −J
j=1
44 CAPÍTULO 2. ANÁLISIS DE VARIANZA. MODELO DE UN FACTOR

1 ∑
J
1 1
A=1+ [ ( )− ]
3(J − 1) nj − 1 N −J
j=1

El estadı́stico de contraste es
C
B=
A
que sigue una distribución χ2 (J − 1) cuando H0 es cierta.

La región de rechazo es R1 = [χ21−α (J − 1), +∞[


donde χ21−α (J − 1) es el valor crı́tico de una χ2 (J − 1) que deja por debajo un área de
probabilidad 1 − α.

NOTA: Si C < χ21−α (J − 1), no es necesario calcular A puesto que A es siempre mayor
que 1 y, por tanto, se cumplirá que B < χ21−α (J − 1) y aceptaremos que las varianzas son
iguales.

2.7. Comparaciones múltiples.


El objetivo de toda investigación experimental consiste en obtener la máxima información
a partir de los datos observados. La única información que se obtiene de un análisis de la va-
rianza significativo es que las medias de los diferentes tratamientos (niveles del factor) varı́an
entre sı́ más de lo que cabe esperarse del azar. Las denominadas comparaciones múltiples se
utilizan cuando el investigador, una vez aplicado el ANOVA y obtenido un resultado signifi-
cativo, desea tener un conocimiento más exacto sobre la causa de tales diferencias. Es decir,
de dónde proceden y cuáles son los tratamientos que han tenido mayor efectividad sobre la
variable respuesta.
Existen varios procedimientos de comparación múltiple. Nosotros veremos únicamen-
te, dentro de las denominadas comparaciones no planificadas o a posteriori, el Método de
Scheffé y el Método de Dunnett.
1. Método de Scheffé. Se utiliza cuando puede interesar cualquier comparación entre las J
medias obtenidas, y las J muestras no tienen todas el mismo tamaño. Desarrollaremos
el caso de comparar dos medias.
• Hipótesis a contrastar cuando comparamos dos medias, siendo Aj y Al dos niveles
distintos del factor
H0 : µ j = µ l
H1 : µj ̸= µl

• Estadı́stico de contraste:
|Ȳ.j − Ȳ.l |
S=√
M CR( n1j + 1
nl )

S2
• Distribución muestral: J−1 → F (J − 1, N − J)

• Región crı́tica: R1 = {S tales que S ≥ (J − 1)F1−α (J − 1, N − J)}
2.7. COMPARACIONES MÚLTIPLES. 45

2. Método de Dunnett. Se utiliza cuando alguno de los J tratamientos es una condición


de control e interesa comparar cada uno de los tratamientos con el control. El procedi-
miento consiste en hallar el valor

DU = d1−α (J, N − J) M CR/N

donde d es el valor crı́tico para J grupos (tratamientos+control), N − J son los grados


de libertad de la M CR y α el nivel de significación. Dicho valor crı́tico se busca en la
tabla correspondiente.
El valor de DU se compara con las J − 1 diferencias (Dm ) de la media del grupo control
con la media de los distintos tratamientos. Si Dm ≥ DU rechazamos H0 .

Vamos a resolver el Ejemplo 1 que habı́amos planteado al principio del capı́tulo.

Se trata de un Anova de un factor de efectos fijos completamente aleatorizado.


• Factor: método de enseñanza con 3 niveles (J=3, n1 = 8, n2 = 6, n3 = 12)
• Variable respuesta: puntuaciones del examen (N = 26)
• Hipótesis que contrastamos (son equivalentes las H0 ):

 H0 : método de enseñanza no influye en la puntuación media
H0 : µ1 = µ2 = µ3 ó H0 : α1 = α2 = α3 = 0

H1 : no H0

Los datos y operaciones previas necesarias los podemos disponer en forma de tabla:
Método A Método B Método C
6 36 10 100 3 9
7 49 9 81 4 16
5 25 9 81 8 64
6 36 10 100 3 9
5 25 10 100 7 49
8 64 6 36 6 36
4 16 3 9
7 49 6 36
4 16
7 49
6 36
3 9
48 300 54 498 60 338
• Primero comprobamos la hipótesis de homocedasticidad con la Prueba de Bartlett-Box.

H0 : σ12 = σ22 = σ32 H1 : no H0

Las medias y cuasivarianzas muestrales de cada nivel son:


48 54 60
Ȳ,1 = =6 Ȳ,2 = =9 Ȳ,3 = =5
8 6 12
46 CAPÍTULO 2. ANÁLISIS DE VARIANZA. MODELO DE UN FACTOR

12 12 38
s∗2
1 = = 1′ 7142 s∗2
2 = = 2′ 4 s∗2
3 = = 3′ 45
7 5 11
log s∗2 ′
1 = 0 2341 log s∗2 ′
2 = 0 3802 log s∗2 ′
3 = 0 5384

El estadı́stico de la prueba es B= C
A ,→ χ2 (J − 1)
Calculamos primero C.

7 12 12 38
7 + 5 5 + 11 11
C = 2′ 3026[(26 − 3) log − (7 · 0′ 2341 + 5 · 0′ 3802 + 11 · 0′ 584)] =
23
= 2′ 3026[23 · log 2′ 6956 − 9′ 4621] = 2′ 3026 · 0′ 4432 = 1′ 0205
Tomamos α = 0′ 01. La región crı́tica es: R1 = [χ21−α (J − 1), +∞[
Por tanto, el valor crı́tico será: χ0′ 99 (2) = 9′ 21
2

Como C = 1′ 02 < 9′ 21 = χ20′ 99 (2) entonces ya no hace falta calcular A y


aceptamos la hipótesis H0 de que las varianzas son iguales.

• Realizamos ahora el contraste de hipótesis que interesa.

H0 : µ1 = µ2 = µ3 H1 : no H0


J ∑
nj
1 ∑∑
J nj
(48 + 54 + 60)2
a= Yij2 = 300+498+338 = 1136 b= ( Yij )2 = = 1009′ 3846
N 26
j=1 i=1 j=1 i=1


J
1 ∑
nj
482 542 602 165888 + 279936 + 172800
c= ( Yij )2 = + + = = 1074
nj 8 6 12 576
j=1 i=1

SCT = a − b = 1136 − 1009′ 3846 = 126′ 6154


SCE = c − b = 1074 − 1009′ 3846 = 64′ 6154
SCR = a − c = 1136 − 1074 = 62

Tabla ANOVA:

Fuente variación Sumas cuadrados Grados libertad Medias cuadráticas Estadı́stico


FV SC gl MC F

Entre grupos 64’6154 J − 1=2 SCE


J−1 =32’3077
M CE
M CR = 11′ 985

Residual 62 N − J=23 SCR


N −J =2’69565

Total 126’6154 N − 1=25

Consideramos α = 0′ 01. La región crı́tica es siempre R1 = [F1−α (J − 1, N − J), +∞[


El valor crı́tico es: F1−α (J − 1, N − J) = F0′ 99 (2, 23) = 5′ 6637
Por tanto, como 11′ 985 = F > F0′ 99 (2, 23) = 5′ 66 ≡ F ∈ R1
rechazamos H0 . Es decir, el método de enseñanza sı́ que influye.

• Como hemos rechazado la hipótesis nula, vamos a aplicar el Método de Scheffé para ver
qué medias son las que difieren.
2.7. COMPARACIONES MÚLTIPLES. 47

a) H0 : µ1 = µ2 frente a H1 : µ1 ̸= µ2

|Ȳ.j − Ȳ.l | |6 − 9|
S=√ =⇒ S12 = √ = 3′ 383
M CR( n1j 1
+ nl ) ′ 1 1
2 696( 8 + 6 )
√ √
(J − 1)F1−α = 2 · 5′ 6637 = 3′ 366
Como S12 = 3′ 383 > 3′ 366 rechazamos H0 y concluimos que los métodos A y B no
son igual de eficaces.

b) H0 : µ1 = µ3 frente a H1 : µ1 ̸= µ3

|6 − 5|
S13 = √ = 1′ 3343
2′ 696( 18 + 1
12 )
√ √
(J − 1)F1−α = 2 · 5′ 6637 = 3′ 366
Como S13 = 1′ 3343 < 3′ 366 aceptamos H0 y concluimos que los métodos A y C son
igual de eficaces.

c) H0 : µ2 = µ3 frente a H1 : µ2 ̸= µ3

|9 − 5|
S23 = √ = 4′ 872
2′ 696( 16 + 1
12 )
√ √
(J − 1)F1−α = 2 · 5′ 6637 = 3′ 366
Como S23 = 4′ 872 > 3′ 366 rechazamos H0 y concluimos que los métodos B y C no
son igual de eficaces.

Por tanto, como el método B tiene la media más alta y hemos visto que es significativa-
mente diferente del A y del C, concluimos que interesará aplicar el método B.

Common questions

Con tecnología de IA

En un diseño de efectos fijos, los niveles del factor se fijan con base en el interés del experimentador, y el análisis se enfoca en comprobar si existen diferencias significativas entre estos niveles. En cambio, en un diseño de efectos aleatorios, los niveles se seleccionan aleatoriamente de todos los posibles niveles del factor, y el análisis se dirige a evaluar si la variabilidad entre los niveles aleatorios es significativa respecto a la variabilidad general .

Un contraste unilateral a izquierda implica que la hipótesis alternativa sugiere que el parámetro poblacional es menor que el valor de la hipótesis nula. El estadístico de contraste T se calculará como T = (X̄ - µ0)/(s/√n), donde s es la desviación típica muestral. La región de aceptación será R0 = ]-t1-α(n-1), +∞[. Si T no pertenece a R0, se rechaza H0. Este enfoque es apto para muestras pequeñas y utiliza la distribución t de Student .

El error tipo I ocurre cuando se rechaza una hipótesis nula que es cierta. La probabilidad de cometer un error tipo I se denomina nivel de significación del contraste, representado por α. Es la probabilidad de que, siendo cierta la hipótesis nula H0, el valor del estadístico caiga en la región crítica .

Es apropiado aplicar un modelo de ANOVA de efectos fijos cuando los niveles del factor son de interés específico para el investigador y se quiere evaluar si estos niveles tienen diferentes efectos sobre la variable dependiente. Se utiliza principalmente cuando se quiere analizar todos los niveles considerados relevantes para el estudio .

Aumentar el tamaño de la muestra disminuye la probabilidad de cometer un error tipo II, lo que resulta en contrastes más potentes. Esto se debe a que un mayor tamaño de muestra permite una mejor estimación de los parámetros poblacionales, reduciendo la incertidumbre y aumentando la capacidad del test para detectar efectos reales .

La prueba de Bartlett evalúa la homocedasticidad al verificar si las varianzas dentro de los niveles del factor son iguales. Calcula un estadístico de prueba B a partir de las cuasivarianzas en cada nivel y lo compara con un valor crítico de χ²(J-1). La hipótesis nula de igualdad de varianzas se acepta si B es menor que el valor crítico, y se rechaza indicando heterocedasticidad .

Se calcula un intervalo de confianza para el parámetro de interés. Si el valor de la hipótesis nula se encuentra dentro del intervalo, se acepta la hipótesis nula. Si el valor de la hipótesis nula no se halla dentro del intervalo, se rechaza la hipótesis nula. Este enfoque aprovecha la relación entre los intervalos de confianza y las regiones de aceptación para decidir sobre la hipótesis .

Las comparaciones múltiples proporcionan información sobre qué niveles específicos del factor son responsables de las diferencias significativas observadas. Después de un ANOVA significativo, indican las parejas de medias que difieren significativamente, ayudando a identificar los tratamientos o niveles del factor con mayor efectividad sobre la variable respuesta .

La homocedasticidad, o igualdad de varianzas entre grupos, es una suposición clave en ANOVA de un factor completamente aleatorizado. Se asume que todas las muestras provienen de poblaciones con la misma varianza (σ²), pero no se sabe a priori si las medias son iguales. Esta suposición permite descomponer la variabilidad total en variabilidad entre niveles del factor y dentro de los niveles .

En un contraste de hipótesis bilateral, se determina la región crítica considerando la distribución del estadístico de prueba bajo la hipótesis nula. La región de aceptación es R0 = ]-z1-α/2, z1-α/2[, basándose en el nivel de significación α y la distribución N(0,1) del estadístico. Si el estadístico T no cae dentro de esta región, se rechaza la hipótesis nula .

También podría gustarte