TEMA 6 – CONTRASTE DE HIPÓTESIS SOBRE MEDIAS
1. CONTRASTE DE HIPÓTESIS SOBRE UNA MEDIA
El contraste de hipótesis sobre una media sirve para tomar decisiones acerca de verdadero valor poblacional que corresponde a
la media de una variable. Nos encontramos, por tanto, ante un diseño con una muestra. Sabemos que si extraemos una muestra
aleatoria de tamaño n de una población normal N (μ,σ) y calculamos la media, esa media es un estadístico distribuido
normalmente N (μ,σ/√n).
Sabemos también, por el teorema del límite central que, aun desconociendo la forma de la población de donde extraemos la
muestra, la media muestral tiende a distribuirse normalmente a medida que el tamaño de la muestra n va aumentando.
Por último, también sabemos que si realizamos la siguiente transformación de la variable:
Se distribuye según el modelo normal N(0, 1), por lo que podemos utilizar la distribución normal estandarizada
para conocer las probabilidades asociadas a los diferentes valores de la media. Gracias a estas probabilidades
podemos tomar decisiones con respecto a μ.
EJEMPLO DE CONTRASTE DE HIPÓTESIS SOBRE UNA MEDIA
En un centro de educación especial se utiliza un método de compresión lectora con el que se viene obteniendo un promedio de 6 y
una desviación típica de 2 en una prueba estandarizada de comprensión lectora. Un educador especialista en problemas de
lectura ofrece al centro la posibilidad de utilizar un nuevo método que, según él, es más económico y eficaz. El centro estaría
dispuesto a adoptar ese nuevo método siempre que no se demostrara que con él el rendimiento es inferior al obtenido con el
método antiguo. Se selecciona una muestra aleatoria de 36 niños y, durante un periodo de tiempo, se aplica el nuevo método.
Tras la instrucción, se pasa la prueba estandarizada de compresión lectora y se obtiene una media de 5. Si asumimos que la
desviación típica es la misma con los dos métodos, ¿qué decisión deberá tomarse con un nivel de confianza de 0,99?
1. Hipótesis
2. Supuestos
1. No conocemos la distribución de las puntuaciones en comprensión lectora, pero la muestra
es lo bastante grande (n > 30) como para suponer que la distribución muestral de la media será normal.
2. La muestra es aleatoria.
3. La desviación típica es la misma en los dos métodos.
3. Estadístico de contraste y distribución muestral
4. Regla de decisión
Rechazar la hipótesis nula si:
5. Decisión
Dado que –3 < -2,33, rechazamos la hipótesis nula.
Concluimos que el promedio obtenido con el nuevo
método es significativamente inferior al obtenido con el método antiguo. Por
tanto, el centro decidirá no adoptar el nuevo método.
La situación descrita en el ejemplo anterior es bastante infrecuente en investigación.
Generalmente, si conocemos la desviación típica de una población, también conocemos la media de la población y, por tanto, no
necesitaremos hacer ningún tipo de inferencia de la población.
Por otra parte, si conociendo ambos parámetros deseamos ver si la media ha cambiado
como consecuencia de algún tipo de intervención, lo razonable será también suponer
que también la varianza habrá podido cambiar y, por tanto deja de ser conocida.
La situación con la que generalmente nos encontraremos será aquella en la cual los parámetros poblacionales (tanto la media
como la desviación típica) serán desconocidos.
Sabemos que si de una población normal extraemos una muestra aleatoria de tamaño n y
calculamos en ella el estadístico media, y realizamos la siguiente transformación:
La nueva variable aleatoria se distribuye según el modelo probabilístico t de Student con n- 1
grados de libertad. Por tanto, podemos utilizar la transformación T y la distribución de probabilidad t de Student para conocer
las probabilidades asociadas al estadístico media cuando desconocemos la desviación típica; lo cual nos permitirá tomar
decisiones sobre el parámetro μ.
EJEMPLO DE CONTRASTE DE HIPÓTESIS SOBRE UNA MEDIA
De acuerdo con los datos recogidos durante los últimos años por un psicólogo escolar, los estudiantes de COU que no reciben
orientación vocacional obtienen una media de 190 en una prueba de madurez. El psicólogo opina que los estudiantes que sí
reciben orientación vocacional obtienen un promedio superior en la mencionada prueba. Para obtener alguna evidencia sobre su
sospecha, toma una muestra aleatoria de 65 estudiantes de COU de entre los que habían recibido orientación vocacional y les
pasa la prueba de madurez. Obtiene una media de 198 y una desviación típica de 24. ¿Podemos pensar, con un nivel de
significación de 0,05, que estos datos apoyan la opinión del psicólogo?
1. Hipótesis
2. Supuestos
1. La distribución de las puntuaciones en la prueba de madurez es normal.
2. La muestra es aleatoria
3. Estadístico de contraste y distribución muestral
4. Regla de decisión
Rechazar la hipótesis nula si:
5. Decisión
Dado que 2,667 > 1,67, rechazamos la hipótesis
nula.
Concluimos que el promedio obtenido en la prueba de madurez por los
estudiantes de COU que reciben orientación vocacional es significativamente
superior al obtenido por los estudiantes que no la reciben. Los datos, por
tanto, apoyan la opinión del psicólogo.
5. Nivel crítico
Rechazamos la hipótesis nula
2. CONTRASTE DE HIPÓTESIS SOBRE DOS MEDIAS INDEPENDIENTES
El contraste de hipótesis sobre dos medias se emplea cuando se desea evaluar la eficacia de algún tratamiento y para ello se
selecciona dos grupos de sujetos; a uno de ellos se le aplica el tratamiento y al otro no.
Tras esto, se comparan las medias de los dos grupos en la variable de interés para determinar si difieren o no y, por tanto,
conocer si el tratamiento ha tenido algún efecto o no.
Los términos “medias independientes” significa que se trabajan con dos poblaciones distintas de las que se extrae dos muestras
aleatorias (n1 y n2) y calculamos el estadístico mediaX1 yX2.
Aunque las dos muestras procediesen de la misma población, es esperable que la media de las muestras difieran en cierto grado.
Lo que nos interesa averiguar es si la diferencia entre las dos medias es lo suficientemente grandes para hacernos pensar que las
muestras proceden de poblaciones distintas.
La distribución muestral de la diferencia de dos medias poblacionales tiene como media:
Y como varianza:
Si las dos distribuciones poblacionales son normales, también lo serán las distribuciones muestrales. Y puesto que la diferencia
de medias es una transformación lineal de las dos distribuciones muestrales, la distribución de la diferencia de medias
muestrales también será normal.
De acuerdo con el teorema del límite central cuanto mayor sea los tamaños muestrales de las dos muestras independientes,
más tenderá a la normal, cualquiera que sea la forma de sus correspondientes poblaciones. En consecuencia, lo mismo ocurrirá
con la muestra de la diferencia de medias muestrales.
Por tanto, si realizamos la siguiente transformación:
La variable Z seguirá una distribución normal estandarizada, N(0,1), lo que nos permitirá
calcular su probabilidad y, por tanto, llevar a cabo un contraste de hipótesis sobre la diferencia entre μ1-μ2.
EJEMPLO DE CONTRASTE DE HIPÓTESIS SOBRE DOS MEDIAS INDEPENDIENTES
La distribución de las puntuaciones en una escala de actitudes hacia el aborto es, tanto en la población de varones como en la de
mujeres, normal con media 12 y desviación típica 4. Un psicólogo social sospecha que, en los últimos años, las mujeres han
pasado a tener una actitud más favorable hacia el aborto (puntuaciones más altas en la escala) que los hombres. Para obtener
alguna evidencia sobre su sospecha, selecciona aleatoriamente un grupo de 30 varones y otro de 30 mujeres y les pasa la
mencionada escala, obteniendo los siguientes resultados: Xv=11, Xm=13.
¿Podemos afirmar, con un nivel de significación de 0,05, que las mujeres muestran actitudes más favorables hacia el aborto que
los hombres?
1. Hipótesis
2. Supuestos
1. Las puntuaciones en la escala se distribuye normalmente en las dos poblaciones con σ = 4.
2. Las muestras se han extraído de forma aleatoria.
3. Las muestras se han extraído independientemente una de otra.
3. Estadístico de contraste y distribución muestral
4. Regla de decisión
Rechazar H0 si: Z < z0,05 o si p < α
5. Decisión
Z =-1,94 < z0,05=-1,65, luego se rechaza la H0.
p=P(Z<-1,94)=0,0262 < α = 0,05, luego se rechaza la H0.
Concluimos que el promedio obtenido por las mujeres es significativamente más alto que el obtenido por los varones
(con α = 0,05).
Por tanto, los datos apoyan la sospecha del psicólogo.
2.1 SUPONIENDO VARIANZAS IGUALES
Como hemos visto, la situación más común en investigación es que cuando las medias poblacionales sean desconocidas, sus
desviaciones típicas también sean desconocidas. Si suponemos que las varianzas poblacionales son iguales (a este supuesto se
denomina igualdad de varianzas u homocedasticidad), entonces solo será necesario estimar un parámetro (σ2 = σ2 1 =σ2 2). Y
puesto que los dos estimadores insesgados que disponemos (S2 1 y S2 2) son independientes, lo apropiado será utilizar ambos
estimadores para obtener una única estimación de σ2 , pues la combinación ponderada de ambas nos proporcionará una
estimación más exacta que un único estimador.
A partir de aquí, se puede demostrar que:
La variable T seguirá una distribución t de Student con n1+n2–2 grados de libertad. Esta ecuación nos permite calcular las
probabilidades asociadas a la diferencia de medias de los estadísticos (X1 –X2) y, por tanto, llevar a cabo un contraste de
hipótesis sobre la diferencia entre μ1-μ2 cuando se asume que las varianzas poblacionales (σ2 1 y σ 2 2) de donde provienen las
muestras son iguales.
Cuando los tamaños muestrales son iguales (o aproximadamente iguales), es decir, cuando n1=n2=n;
2.2 ¿CUÁNDO PODEMOS SUPONER VARIANZAS IGUALES (HOMOCEDASTICIDAD)?
1. Cuando ambos tamaños muestrales son grandes.
2. Cuando los dos tamaños muestrales son iguales.
Los estadísticos han demostrado que cuando se cumple esta condición, incluso aunque las diferencias entre las varianzas sean
grandes, la suposición de igualdad de varianza tiene poca influencia en la distribución t n1+n2-2.
3. Cuando las varianzas muestrales son muy parecidas.
Un criterio general es que la varianza de una de las pruebas no sea el doble de grande que la otra.
EJEMPLO DE CONTRASTE DE HIPÓTESIS SOBRE DOS MEDIAS INDEPENDIENTES
Se ha llevado a cabo un experimento para determinar si los dibujos actúan como facilitadores o entorpecedores del aprendizaje
de palabras en niños de 3 y 4 años. Se ha seleccionado aleatoriamente 80 niños de una escuela infantil y a la mitad de ellos se les
ha intentado enseñar nuevas palabras sin utilizar ilustraciones (Grupo 1) y a la otra mitad se les ha
intentado enseñar las mismas palabras ilustradas con sencillos dibujos (Grupo 2). Tras el entrenamiento
se ha evaluado el número de palabras aprendidas por cada niño y se han obtenido los siguientes
resultados:
A la vista de estos resultados y utilizando un nivel de significación de 0,05 ¿qué podemos decir sobre la hipótesis de que ambas
muestras proceden de poblaciones con la misma media?
1. Hipótesis
2. Supuestos
1. Independientemente de que las puntuaciones de origen sean normales, los tamaños muestrales son lo bastante
grandes como para garantizar que la diferencia entre las medias muestrales se distribuirá normalmente.
2. Suponemos varianzas poblacionales iguales.
3. Las muestras se han extraído de forma aleatoria.
4. Las muestras se han extraído independientemente una de la otra.
3. Estadístico de contraste y distribución muestral
4. Regla de decisión
Rechazar H0 si: T < 0,025t78 o si p < α
5. Decisión
T =-2,64 < 0,025t78 =-1,99, luego se rechaza la H0.
p=2[P(T<-2,64)]=0,01 < α = 0,05, luego se rechaza la H0.
Concluimos que el promedio de palabras aprendidas utilizando ilustraciones es
mayor que el obtenido sin ilustraciones con α = 0,05.
2.3 SUPONIENDO VARIANZAS DISTINTAS
Si las varianzas poblacionales son distintas, carece de sentido obtener una única estimación a partir de la combinación
ponderada de los dos estimadores disponibles (S2 1 y S2 2). Más bien, cada uno de ellos debe ser considerado un estimador de
la varianza de su propia población. Podemos, así, definir el estadístico:
Donde S2 1 y S2 2 son los estimadores insesgados de sus respectivas varianzas poblacionales. El problema de proceder de este
modo es que el estadístico T´ no se distribuye, necesariamente, según el modelo t de Student con n1+n2-2 grados de libertad.
El método propuesto por Cochran y Cox (1957) consiste en obtener el punto crítico de la distribución T´ mediante la siguiente
ecuación:
Donde t1 y t2 se refieren a los puntos de la distribución de t de Student (con n1-1 y n2-1 grados de libertad, respectivamente)
que dejan por debajo una probabilidad p; siendo p igual a α si se trata de un contraste unilateral izquierdo; a 1-α si se trata de un
contraste unilateral derecho; a α/2 (para el punto crítico izquierdo) y 1-α/2 (para el punto crítico derecho) si se trata de un
contraste bilateral. Comparando T´ con tcrítico podemos tomar decisiones respecto a μ1-μ2.
Welch ha propuesto que la variable T´ sigue una distribución t de Student cuyos grados de libertad vienen determinados por la
siguiente ecuación:
El resultado obtenido para g.l.´ se redondea al entero más próximo.
EJEMPLO DE CONTRASTE DE HIPÓTESIS SOBRE DOS MEDIAS INDEPENDIENTES
Se ha llevado a cabo un experimento para determinar si los dibujos actúan como facilitadores o entorpecedores del aprendizaje
de palabras en niños de 3 y 4 años. Se ha seleccionado aleatoriamente 80 niños de una escuela infantil. A 50 de ellos se les ha
intentado enseñar nuevas palabras sin utilizar utilizar ilustraciones (Grupo 1) y a los 30 restantes se les ha intentado enseñar las
mismas palabras ilustradas con sencillos dibujos (Grupo 2). Tras el entrenamiento se ha evaluado el número de palabras
aprendidas por cada niño y se han obtenido los siguientes resultados:
A la vista de estos resultados y utilizando un nivel de significación de 0,05 ¿qué podemos decir sobre la hipótesis de que ambas
muestras proceden de poblaciones con la misma media?
1. Hipótesis
2. Supuestos
1. Independientemente de que las puntuaciones de origen sean normales, los tamaños muestrales son lo bastante
grandes como para garantizar que la diferencia entre las medias muestrales se distribuirá normalmente.
2. Como los tamaños muestrales son distintos, decidimos no suponer la igualdad de varianzas
(Homocedasticidad).
3. Las muestras se han extraído de forma aleatoria.
4. Las muestras se han extraído independientemente una de la otra.
3. Estadístico de contraste
4. Distribución muestral
T’ se distribuye según la distribución t de Student con 49 grados de libertad.
5. Decisión
1. T´=-2,47 < 0,025t49 =-2,01, luego se rechaza la H0.
2. p=2[P(T<-2,47)]=0,02 < α = 0,05, luego se rechaza la H0.
3. Concluimos que el promedio de palabras aprendidas utilizando ilustraciones es mayor que el obtenido sin
ilustraciones con α = 0,05.
5. Decisión (Utilizando el t crítico de Cochran y Cox)
1. Calculamos el t crítico izquierdo
2. T´=-2,47 < t crítico =-2,036, luego se rechaza la H0.
3. Por tanto, llegamos a la misma conclusión alcanzada mediante el procedimiento de Welch. T´ se distribuye según la
distribución t de Student con 49 grados de libertad.
3. CONTRASTE DE HIPÓTESIS SOBRE DOS MEDIAS RELACIONADAS
En los contrastes de hipótesis sobre dos medias independientes las muestras se obtienen de poblaciones independientes. En la
práctica, nos aseguramos de disponer de muestras independientes asignando el tratamiento a los sujetos de manera aleatoria.
El siguiente contraste es sobre muestras relacionadas. Tenemos muestras relacionadas cuando el valor de una muestra covaría
con el valor de la otra muestra. En la práctica tenemos muestras relacionadas cuando un grupo de sujetos es evaluado dos
veces.
Por ejemplo, si medimos a un grupo de sujetos con problemas de aprendizaje en dos tareas de habilidades diferentes,
tendremos dos muestras de puntuaciones relacionadas. Los sujetos menos afectados por los problemas de aprendizaje tendrán
puntuaciones más altas en ambas tareas, mientras que los sujetos más afectados tendrán puntuaciones más bajas en ambas
tareas.
También tendremos dos muestras relacionadas cuando medimos pares de sujetos. Por ejemplo, en un estudio sobre relaciones
maritales podría interesarnos preguntar a los miembros de una muestra de matrimonios por su grado de satisfacción marital.
Aunque, aquí, a cada sujeto solo se mide una vez, cada matrimonio como unidad contribuye con dos puntuaciones.
Parece razonable asumir que si un miembro de la pareja se siente satisfecho, el otro miembro también se sentirá satisfecho.
Se llaman muestras relacionadas cuando el conocimiento de una de las puntuaciones nos proporciona cierta información acerca
de la otra.
Cuando tenemos dos muestras relacionadas, se transforman las puntuaciones originales en diferencias: Di = Yi1 – Yi2. Estas
puntuaciones Di nos informa del cambio producido entre las puntuaciones de cada par. Di valdrá cero cuando las dos
puntuaciones sean iguales; será mayor que cero cuando la primera puntuación sea mayor que la de la segunda; será menor de
cero cuando la primera puntuación sea menor que la de la segunda.
Desde el punto de vista de análisis de datos, en el contraste sobre muestras relacionadas dispondremos de una única población,
la población de las diferencias, con media μD y con desviación típica σD.
Si de esa población extraemos aleatoriamente n observaciones Di , el estadístico D será una variable aleatoria con media μD y
error típico σD/√n.
Si realizamos la siguiente transformación de la variable D:
Podremos utilizar la distribución normal estandarizada para conocer su probabilidad asociada y, por tanto, podremos tomar
decisiones con respecto a μ1-μ2.
En el caso de que desconociéramos la desviación típica de las puntuaciones diferenciales (σD), podríamos realizar la siguiente
transformación de la variable D:
Si la población de las diferencias es normal o el tamaño muestral es lo bastante grande, entonces la variable T se distribuirá
según el modelo de t de Student con n-1 grados de libertad y podremos tomar decisiones con respecto a μ1-μ2.
EJEMPLO DE CONTRASTE DE HIPÓTESIS SOBRE DOS MEDIAS RELACIONADAS
Según sugieren algunos trabajos, los niños con problemas perceptivos aumentan su rendimiento con entrenamiento adecuado en
preguntas del test de Raven. Con el fin de obtener evidencia adicional sobre esta afirmación, un investigador seleccionó una
muestra aleatoria de 10 niños con problemas perceptivos y les pasó el test de Raven para obtener una medida inicial. Después los
entrenó durante dos meses en tareas similares a las planteadas por el test de Raven y, terminado el entrenamiento, volvió a
pasarles el test para obtener una medida post-tratamiento. Los resultados obtenidos fueron los siguientes:
X antes = 75,8
X después = 81,8
Sn-1 = SD = 4,94
¿Hay evidencia suficiente en los datos para afirmar, con un nivel de significación de 0,01, que el tipo de entrenamiento efectuado
consigue aumentar el rendimiento en el test de Raven en los niños con problemas perceptivo?
1. Hipótesis
2. Supuestos
1. La población de las diferencias antes-después es normal.
2. Las muestras se han extraído de forma aleatoria.
3. Estadístico de contraste y distribución muestral
4. Regla de decisión
Rechazar H0 si: T < 0,01t9 o si p < α
5. Decisión
T =-3,84< 0,01t9 =-2,821, luego se rechaza la H0.
p=[P(T<-2,64)]=0,005 < α = 0,01, luego se rechaza la H0.
Concluimos que el entrenamiento efectuado consigue mejorar el rendimiento medio de los sujetos con problemas
perceptivos con α = 0,01.
4. EL TAMAÑO DE EFECTO EN LOS CONTRASTES SOBRE MEDIAS
Aunque el contraste de hipótesis nos permite afirmar, con una determinada probabilidad de equivocarnos, si la hipótesis nula es
falsa, no nos permite conocer si el efecto estudiado posee alguna relevancia. Para ello, necesitamos otro tipo de medida, la
medida del tamaño de efecto.
Cohen (1988) define el tamaño de efecto como el grado en que el fenómeno objeto de estudio está presente en la población o
como el grado en que la hipótesis nula es falsa.
Kazdin (1992) define el tamaño de efecto como la magnitud de la diferencia entre condiciones o como la magnitud del impacto
del tratamiento.
Como hemos visto el nivel crítico (p) no es una medida del tamaño de efecto por su dependencia con el tamaño muestral. Para
superar es inconveniente se han propuesto diversos índices.
El índice más popular es el índice δ de Cohen:
Donde corresponden a las medias poblacionales de dos grupos o condiciones μ1 y μ2 (p.e. El grupo control y el grupo
experimental), y σ representa la desviación típica común.
El parámetro δ expresa la diferencia entre dos medias poblacionales en términos de la desviación típica poblacional (suponiendo
que las distribuciones poblacionales son normales y que sus varianzas son iguales).
En el caso de contrastes para una media el índice δ de Cohen sería:
Donde μ0 se refiere al valor propuesto para μ en H0 y μ1 se refiere al valor propuesto para μ en H1 (valor que estimamos
mediante la media muestral) y σ se refiere a la desviación típica poblacional (valor que estimamos mediante Sn-1).
Una diferencia de una desviación típica (δ =1) es en realidad una puntuación z=1 de la distribución N(0,1), lo que significa que
puede ser interpretada como que el 84,13% [pues P(Z<1)=0,8413] de los sujetos del grupo con menor media están por debajo de
la media del otro grupo.
Se han desarrollado varios estadísticos que pretenden estimar este parámetro:
1. Cohen propone utilizar la desviación estándar promediada de los grupos objeto de comparación.
2. Glass sugiere utilizar la desviación estándar de uno de los grupos, habitualmente el grupo de control.
3. Finalmente, Hedges propone utilizar la desviación estándar promediada de todos los grupos o tratamientos implicados
en el diseño (coincide con la raíz cuadrada de la media cuadrática de error del ANOVA (Kirk, 1996, p.751)).
Autores como Huberty (2002) y Olejnik y Algina (2000), indican que esta última opción resulta la más indicada cuando las
varianzas de los grupos estiman la misma varianza poblacional, es decir, cuando se cumple el supuesto de homocedasticidad. En
caso de incumplimiento de dicho supuesto, estos autores sugieren utilizar el error típico de uno de los grupos.
Si deseamos obtener el tamaño de efecto a partir de algún informe de investigación publicado nos encontraremos, muy
probablemente, con que la información proporcionada se limita a las medias, los tamaños muestrales y el valor del estadístico
de contraste; rara vez se ofrece el valor de las desviaciones típicas. No obstante, basándonos en la ecuación que relaciona el
estimador g con el estadístico de contrate T podemos obtener una estimación del tamaño de efecto (g de Hedges):
Las ecuaciones que hemos visto hasta ahora son apropiadas para estimar el tamaño de efecto con muestras independientes.
Con muestras relacionadas, Gibbons, Hedeker y Davis (1993) proponen utilizar como estimador del tamaño del efecto:
Donde D se refiere a la media de las n diferencias y σD a la desviación típica en esas diferencias.
Otra medida del tamaño del efecto muy utilizada en los diseños de dos muestras es coeficiente de correlación r de Pearson.
Tanto si se está trabajando con muestras independientes como con muestras relacionadas la correlación se calcula entre las
puntuaciones de la variable independiente (variable dicotómica cuyos niveles vienen definidos por la pertenencia a un grupo u
otro) y la variable dependiente (la variable en la cual se desea comparar los grupos).
El cálculo de r a partir del estadístico T se realiza con la siguiente ecuación:
Donde g.l.=n1+n2-2 (es decir los grados de libertad asociado al estadístico T).
Elevando al cuadrado el coeficiente de correlación r se obtiene el coeficiente de determinación (R2) que informa de la
proporción de la varianza de la variable dependiente que es explicada por la proporción de la variable independiente.
Las preferencias por una u otra medida del tamaño del efecto (d o r) están divididas. Quizás la utilización de d está más
extendida. Tiene la ventaja de ser fácilmente interpretable, pero su uso requiere suponer que las distribuciones son normales y
homocedásticas.
La interpretación de r es menos intuitiva (proporción de varianza explicada) para el profesional no experto en estadística, pero
tiene una propiedad muy deseable; posee un mínimo y un máximo.
De cualquier manera, la transformación de una medida a otra es fácil de obtener:
Siendo p=n1/(n1+n2); es decir, la proporción de sujetos que pertenecen al primer grupo (o, indistintamente, p=n2/(n2+n1); es
decir, la proporción de sujetos que pertenece al segundo grupo).
4.1 INTERPRETACIÓN DEL TAMAÑO DEL EFECTO
Existen tres maneras por las cuales podemos interpretar la importancia del tamaño del efecto:
1. Investigaciones previas:
En base al tamaño de efecto obtenido en otras investigaciones, podemos hacernos una idea de la importancia de nuestro
tamaño de efecto.
2. Evaluación personal de cuales son diferencias importantes:
En muchos casos, el investigador es capaz de determinar que tamaños de efecto son importantes y cuáles no.
3. Uso de convenciones:
Cohen (1969) propuso que en las ciencias del comportamiento la importancia del tamaño del efecto se puede clasificar en tres
niveles:
EJEMPLO DE TAMAÑO DEL EFECTO EN LOS CONTRASTES DE HIPÓTESIS SOBRE DOS MEDIAS
Tras comprobar que los niños con ilustraciones aprenden más palabras que los niños a los que no se les enseñan con
ilustraciones, deseamos comprobar el tamaño de efecto. Es decir, deseamos cuantificar la mejora obtenida en el aprendizaje de
palabras al emplear ilustraciones.
Los datos obtenidos fueron los siguientes:
Cálculo de la g de Hedges:
Cálculo del coeficiente de correlación r de Pearson y del coeficiente de determinación:
En la tabla de la distribución normal estandarizada encontramos que P(Z<0,7224, por lo que d=0,59 nos está indicando que el
72% de los niños no entrenados con ilustraciones está por debajo del promedio de los niños entrenado con ilustraciones. O lo que
es lo mismo, el 28% de los niños no entrenados con ilustraciones supera el promedio de los niños entrenados con ilustraciones.
5. CÁLCULO DE LA POTENCIA EN LOS CONTRASTES SOBRE MEDIAS
Recordemos que la potencia de un contraste depende de tres factores:
1. la verdadera diferencia entre las afirmaciones establecidas entre H0 y H1 (es decir, el tamaño de efecto),
2. el valor de α (nivel de significación) y
3. el error típico de la distribución muestral (que depende del tamaño muestral, de modo que cuanto más grande es el
tamaño muestral menor es el error típico).
5.1 EL CÁLCULO DE LA POTENCIA DE UNA MEDIA
El cálculo de la potencia consiste en obtener un valor Δ (delta mayúscula), a partir del cual es posible conocer directamente la
potencia de un contraste recurriendo a una tabla. Para obtener Δ necesitamos el valor del tamaño de efecto δ y una función de
n que depende de cada situación concreta. En el caso del contraste de hipótesis sobre una media:
Siendo δ el tamaño de efecto obtenido a partir de:
El término |μ0-μ1|recoge la diferencia, en valor absoluto, que consideramos relevante detectar en nuestro estudio y para la
cual deseamos conocer la potencia del contraste; y σ es la desviación típica poblacional, que puede ser conocida o puede ser
estimada a partir de la información procedente de estudios previos.
Supongamos que nos interesa conocer la potencia del contraste para detectar una diferencia de 1 punto entre las medias de las
poblaciones, siendo σ=2, n=36 y α=0,01. Con estos datos obtenemos:
(Mirar la tabla de potencia con Δ=3 y α=0,01, siendo un contraste unilateral izquierdo Potencia = 0,75).
Una potencia de 0,75 significa que siendo la hipótesis alternativa cierta, rechazaremos la hipótesis nula el 75% de la veces.
La ecuación sobre la potencia de un contraste puede transformarse de tal modo que podamos calcular el tamaño muestral
necesario para alcanzar una determinada potencia:
¿Qué tamaño muestral necesitaríamos para alcanzar, en el contraste anterior una potencia de 0,90?
(Mirar la tabla de potencia con un α=0,01, siendo un contraste unilateral izquierdo y una potencia de 0,90. Δ=3,6)
Necesitaríamos una muestra de 52 sujetos para que, siendo la hipótesis alternativa cierta y habiendo un tamaño de efecto de
0,5, la probabilidad de rechazar la hipótesis nula sea de 0,90.
5.2 EL CÁLCULO DE LA POTENCIA DE DOS MEDIAS INDEPENDIENTES
Al trabajar con dos medias independientes (suponiendo dos poblaciones normales con varianzas iguales), el tamaño del efecto
viene dado por:
Si los tamaños muestrales son iguales (n1=n2=n) Δ puede obtenerse mediante:
Y consecuentemente
Supongamos que nos interesa conocer la potencia del contraste para detectar una diferencia de 2 puntos entre las medias de
dos poblaciones, siendo σ=4, n1=n2=30 y α=0,05 (Contrate unilateral izquierdo). Con estos datos obtenemos:
(Mirar la tabla de potencia con Δ=1,94 y α=0,05, siendo un contraste unilateral izquierdo. Potencia = 0,60-0,64)
Una potencia de 0,60-0,64 significa que siendo la hipótesis alternativa cierta, rechazaremos la hipótesis nula el 60-64% de las
veces.
Si los tamaños muestrales son diferentes, podemos calcular la media armónica de n1 y n2:
Y utilizar esta tamaño de n para obtener Δ con la ecuación:
¿Qué tamaño muestral necesitaríamos para alcanzar, en el contraste anterior una potencia de 0,90?
(Mirar la tabla de potencia con un α=0,05, siendo un contraste unilateral izquierdo y una potencia de 0,90. Δ=2,90)
Necesitaríamos una muestra de 67 sujetos para que, siendo la hipótesis alternativa cierta y habiendo un tamaño de efecto de
0,5, la probabilidad de rechazar la hipótesis nula sea de 0,90.
El cálculo de la potencia de dos medias relacionadas es idéntico al de dos medias independientes excepto en lo que se refiere al
parámetro δ:
Donde σD se refiere a la desviación típica poblacional de las n diferencias entre las puntuaciones de cada par. Esto en la práctica
supone una dificultad añadida, pues ahora no sólo necesitamos conocer (o estimar), como en el caso anterior, el parámetro σ
sino además el parámetro ρ (coeficiente de correlación entre las puntuaciones de ambas poblaciones), pues:
Una vez calculado δ, podemos obtener Δ aplicando la siguiente ecuación, como hicimos cuando teníamos medias
independientes: