4 PRUEBAS DE HIPÓTESIS CON DOS MUESTRAS Y VARIAS MUESTRAS DE DATOS
NUMÉRICOS.
4.1 PRUEBA DE HIPOTESIS CON DOS MUESTRAS Y VARIAS MUESTRAS DE DATOS NUMÉRICOS.
La prueba de hipótesis para dos muestras es casi semejante a la prueba de una sola muestra es decir que
este capítulo se tomaran dos muestras aleatorias para determinar si proviene de una misma población o a su
vez de poblaciones iguales.
Así mismo puedo entender que en el caso de que se den las dos poblaciones iguales, se esperara que la
media entre las dos medias muéstrales sea cero.
En el caso que existan poblaciones independientes, estas son iguales a la suma de dos variables
individuales.
Por ende las muestras deben ser suficientemente grandes para que la distribución de las medias muéstrales
siga una distribución normal.
Así mismo constituyo que para realizar una comparación de poblaciones con muestras pequeñas es
necesario tener en cuanta las siguientes suposiciones: las dos muestras provienen de poblaciones
independientes, de igual manera las desviaciones estándar de las dos poblaciones son iguales, así mismo las
poblaciones muestreadas siguen una distribución normal.
Como consiguiente tenemos que el número de grados de libertad en la prueba es igual al número total de
elementos muestreados, menos el número de muestras.
Existen casos en que las muestras no son independiente sino son dependientes o que a su ves estas están
relacionadas entre si
Por tal razón puedo entender que existen dos tipos de muestras dependientes,
1.- las que se caracterizan por una medición, una intervención de cierto tipo y esta a su ves otra medición.
2.- existe una formación de pares de las observaciones correspondientes.
La inferencia estadística se ocupa de la obtención de conclusiones en relación a un gran número de sucesos,
en base a la observación de una muestra obtenida de ellos.
Los métodos de la estadística inferencial señalan los procedimientos que se han de seguir para poder extraer
conclusiones válidas y fiables, a partir de la evidencia que suministra las muestras.
Dos son los problemas que trata de resolver la estadística inferencial en torno a las pruebas estadísticas: 1º
determinar si es probable que un valor obtenido a partir de una muestra pertenece realmente a una población;
2º determinar, en términos de probabilidad, si las diferencias observadas entre dos muestras significan que
las poblaciones de las que se han obtenido las muestras son realmente diferentes.
A partir de ambas determinaciones se desarrollan los fundamentos de las pruebas de decisión estadísticas o
pruebas de hipótesis (en inglés, test of hypothesis).
Existen dos tipos de técnicas estadísticas inferenciales: las paramétricas y las aparamétricas. Las primeras
establecen un buen número de restricciones sobre la naturaleza de la población de la que se obtiene los
datos, siendo los <<parámetros>> los valores numéricos de la población. Las segundas, llamadas también de
<<libre distribución>>, no exigen tantas restricciones sobre la naturaleza de la población, ya que atienden
más a la ordenación de los datos que a su valor numérico.
4.2 distribuciones normal y t de estudent.
Distribución Normal
DISTRIBUCION NORMAL La distribución normal es muy importante por lo siguiente:
Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre indica su
extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a
parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de
campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de p y valores
de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una curva en "forma de
campana".
En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas variables
asociadas a fenómenos naturales que siguen el modelo de la normal
Caracteres morfológicos de individuos (personas, animales, plantas,...) de una especie, p.ejm. tallas, pesos,
envergaduras, diámetros, perímetros,...
Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco, o de una misma cantidad de
abono.
Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de individuos,
puntuaciones de examen.
Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a un medio,...
Errores cometidos al medir ciertas magnitudes.
Valores estadísticos muestrales, por ejemplo : la media.
Otras distribuciones como la binomial o la de Poisson son aproximaciones normales, ...
Y en general cualquier característica que se obtenga como suma de muchos factores.
En probabilidad y estadística, la distribución t (de Student) es una distribución de probabilidad que surge del
problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es
pequeño.
Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre
dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de
dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir
de los datos de una muestra.
4.3 pruebas de significancia
Las pruebas de significancia estadística son un procedimiento que brinda un criterio objetivo para calificar las
diferencias que se presentan al comparar los resultados de dos muestras, con el objetivo de explicar si dichas
diferencias se mantienen dentro de los límites previstos por el diseño estadístico (un error y una confianza
esperados) o si, por el contrario, la diferencia entre ellas resulta lo suficientemente grande como para inferir
que ha ocurrido un cambio real en el indicador. Estas pruebas son importantes porque con frecuencia se
tiende a analizar los datos de una encuesta por muestreo probabilístico como si fueran los datos provenientes
de un censo. De ahí que muchas veces se asume la diferencia en el valor de un indicador, de un trimestre
con respecto a otro, como si fuera una diferencia real cuando no necesariamente es así.
En estadística, un resultado se denomina estadísticamente significativo cuando no es probable que haya sido
debido al azar. Una "diferencia estadísticamente significativa" solamente significa que hay evidencias
estadísticas de que hay una diferencia; no significa que la diferencia sea grande, importante, o significativa en
el sentido estricto de la palabra.
El nivel de significación de un test es un concepto estadístico asociado a la verificación de una hipótesis. En
pocas palabras, se define como la probabilidad de tomar la decisión de rechazar la hipótesis nula cuando ésta
es verdadera (decisión conocida como error de tipo I, o "falso positivo"). La decisión se toma a menudo
utilizando el valor P (o p-valor): si el valor P es inferior al nivel de significación, entonces la hipótesis nula es
rechazada. Cuanto menor sea el valor P, más significativo será el resultado.
En otros términos, el nivel de significatividad de un contraste de hipótesis es una probabilidad P tal que la
probabilidad de tomar la decisión de rechazar la hipótesis nula - cuando ésta es verdadera - no es mayor que
P.
4.4 comparación de dos muestras independientes: pruebas t para las diferencias entre dos medias.
Para comparar las medias de dos muestras procedentes de dos poblaciones normales e independientes, se
utiliza el procedimiento Prueba T para muestras independientes, y para ello, se selecciona:
A continuación se abre una ventana con los siguientes campos:
Contrastar variables: donde se han de introducir las variables que se van a analizar, es decir, aquellas
variables sobre las que se va a contrastar si hay o no, diferencias de grupos.
Variable de agrupación: aquí se debe introducir la variable que se utiliza para definir los grupos de sujetos
sobre los que se estudian las diferencias. Entonces el sistema activa el botón definir grupos y al presionarlo
aparece una ventana donde se introducen los valores de la variable que definen los dos grupos de sujetos a
comparar, o el valor de la variable que hará de corte para definir dichos grupos. Si el valor de la variable para
un individuo es menor o igual que el valor especificado, el individuo pertenecerá al primer grupo, y en caso
contrario, al segundo.
Opciones: presionando este botón se obtiene una ventana donde se especifica igual que en la sección
anterior el nivel de confianza para el intervalo y la forma de tratar los valores missing.
. Vamos a comprobar si existen diferencias significativas entre los tiempos medios de dedicación a la
docencia, para los profesores asociados y los titulares de universidad de profesores2.sav. Para ello,
seleccionamos el procedimiento prueba t para muestras independientes, y elegimos la variable tiemdoc para
llevarla al campo contrastar variables. Seguidamente seleccionamos como variable agrupación la variable
categoría, presionamos el botón definir grupos, y tecleamos un 1 en el primer grupo y un 3 en el segundo. por
último pulsamos continuar y aceptar para ejecutar el procedimiento.
Uno de los análisis estadísticos más comunes en la práctica es probablemente el utilizado para comparar dos
grupos independientes de observaciones con respecto a una variable numérica. Como ejemplo,
consideremos los datos que se muestran en la correspondientes a 75 individuos con sobrepeso sometidos a
dos dietas alimenticias distintas, de modo que se desea comparar el peso de los individuos que iniciaron cada
una de las dietas.
Como ya se ha adelantado, la aplicación de un contraste paramétrico requiere la normalidad de las
observaciones para cada uno de los grupos. La comprobación de esta hipótesis puede realizarse tanto por
métodos gráficos (por medio de histogramas, diagramas de cajas o gráficos de normalidad) como mediante
tests estadísticos5 (test de Kolmogorov-Smirnov, test de Shapiro-Wilks). Un número suficiente de
observaciones (digamos mayor de 30) como ocurre en el ejemplo planteado justifica, no obstante, la
utilización del mismo test. Así mismo, este tipo de metodología exigirá que la varianza en ambos grupos de
observaciones sea la misma. En primer lugar se desarrollará el test t de Student para el caso en el que se
verifiquen ambas condiciones, discutiendo posteriormente el modo de abordar formalmente el caso en el que
las varianzas no sean similares.
Bajo las hipótesis de normalidad e igual varianza la comparación de ambos grupos puede realizarse en
términos de un único parámetro como el valor medio, de modo que en el ejemplo planteado la hipótesis de
partida será, por lo tanto:
H0: La media de peso inicial es igual en ambos grupos
Se denotará por {X1, X2,...,Xn} e {Y1,Y2,...,Ym} al peso observado en cada uno de los sujetos sometidos a la
dieta A y a la dieta B respectivamente. En general no se exigirá que coincida el número de observaciones en
cada uno de los grupos que se comparan, de modo que en el ejemplo n=40 y m=35.
El t test para dos muestras independientes se basa en el estadístico:
4.5 pruebas de Fisher para varianzas y de igualdad de las varianzas de dos poblaciones normales.
Ejemplos para comparar varianzas Cuando la comparación es entre varianzas, que es un parámetro de
dispersión, entonces se trabaja con el test “ F “ de R. A. Fisher. Si se tienen dos muestras y se quiere
determinar si sus dispersiones se pueden considerar como idénticas o como diferentes, el método que se
debe seguir es como sigue: Se calculan las varianzas respectivas de las dos muestras, por lo que es
necesario primero estimar las desviaciones típicas o estándar, ya que la varianza es el cuadrado de la
desviación típica. 1) Luego que se conocen las dos varianzas de las muestras, se establece una relación
dividiendo la que tenga mayor valor con la que tenga menor valor y esa es la relación F. Igualmente para
cada muestra se calcula su grado de libertad , o sea: el número de datos menos la unidad. 2) Ahora se debe
comparar el valor calculado de F con los valores de la Tabla de Fisher, según los números de grados de
libertad, a fin de observar el nivel de significación, para poder aceptar o no la hipótesis nula. Cuando el valor
de F calculado para las muestras es superior al valor F de la Tabla de Fisher, se puede admitir que el
resultado es más significativo que el nivel de significación elegido. En seguida aplicaremos el método con un
ejemplo: Se utilizan dos menús en un restaurante urbano para medir el grado de aceptación por parte de los
comensales y saber si los dos menús se pueden o no utilizar indiferentemente. Para ello se ejecutan 5
pruebas con el Menú A y 7 pruebas con el Menú B, calificando con puntos las respuestas de los clientes
(desde “0” grado de aceptación, hasta el grado “10” el cual indica un máximo puntaje de aceptación). Veamos
los datos siguientes: Valores para las cinco pruebas con el menú A, 4,5,6,5,5 ( y llevados al cuadrado son,
16,25,36,25,25); los valores para las siete pruebas con el Menú B son: 3, 4, 5, 4,2,0,0 (y sus valores al
cuadrado son: 9,16,25,16,4,0,0) Al estimar la varianza para el Menú A nos arroja 0,50 y para el Menú B nos
arroja 3,95. Ahora podemos establecer la relación entre las varianzas para estimar la F empírica: F = 3,95 /
0,5 = 7,90. Vamos a la Tabla F de Fisher y observamos los diferentes niveles de significación para Valores
Críticos de F, o sea: Niveles de significación: 20% 10% 5% 1% 0,1% Valor crítico de F: 2,5; 4,0; 6,2; 15,2;
50,5 Ahora bien si comparamos el valor obtenido de las muestras igual a F=7,98, podemos decir que se
ubicaría en la Tabla de Fisher entre 5% y 1%, porque es mayor que 6,2 y menor que 15,2. Entonces,
podemos rechazar la Hipótesis Nula que diría que las dos varianzas son iguales, y admitir la Hipótesis
Alternativa o de Trabajo, la cual diría que las dos varianzas son diferentes, debido a la baja probabilidad de
que sean las mismas. El dueño del restaurante tendría que saber que puede utilizar los dos menús de una
manera indiferente. También se pueden comparar datos de venta de un mismo producto turístico en dos
países emisivos distintos, para saber si existe diferencia significativa entre sus dos varianzas (si son las
mismas o son diferentes) y tomar una decisión de venta más racional.
4.6 comparaciones de dos muestras pareadas.
Las muestras apareadas se obtienen usualmente como distintas observaciones realizadas sobre los mismos
individuos. Un ejemplo de observaciones pareadas consiste en considerar a un conjunto de n personas a las
que se le aplica un tratamiento médico y se mide por ejemplo el nivel de insulina en la sangre antes (X) y
después del mismo (Y). En este ejemplo no es posible considerar aX eY como variables independientes ya
que va a existir una dependencia clara entre las dos variables.
Si se quiere contrastar si hay diferencia entre las poblaciones, llamemos di a la
diferencia entre las observaciones “antes” y “después”. El concepto de prueba pareada se puede extender a
comparaciones de más de dos grupos y hablaremos entonces de bloques de m elementos (tantos elementos
por bloque como grupos o tratamientos), siendo por tanto una pareja un caso particular de bloque de 2
elementos. Hablaremos de este tipo de diseños más adelante, cuando dediquemos algún artículo al análisis
de la varianza, que es la prueba que se utiliza para comparar más de dos grupos. En estas técnicas de
formación de bloques el investigador deja de ser un mero observador, para pasar a "diseñar" el estudio o
experimento, y es una metodología de gran utilidad en muchos tipos de trabajos de investigación en diversas
áreas, desde la agricultura donde se inició, a la medicina, biología, e ingeniería. El fundamento en el que se
basan es en suponer que el bloque es más homogéneo que el conjunto, por lo que restringiendo las
comparaciones entre tratamientos al interior de los bloques se espera obtener una mayor precisión.
4.7 modelo totalmente aleatorio: análisis de varianza de un factor.
En estadística, el análisis de la varianza (ANOVA, según terminología inglesa) es una colección de modelos
estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes
debidos a diferentes variables explicativas.
Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. A. Fisher
en los años 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de
Fisher", debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.
Los modelos de efectos aleatorios se usan para describir situaciones en que ocurren diferencias
incomparables en el material o grupo experimental. El ejemplo más simple es el de estimar la media
desconocida de una población compuesta de individuos diferentes y en el que esas diferencias se mezclan
con los errores del instrumento de medición.
Este modelo se supone cuando el investigador está interesado por una población de niveles, teóricamente
infinitos, del factor de estudio, de los que únicamente una muestra al azar (t niveles) están presentes en el
experimento.
El análisis de la varianza permite contrastar la hipótesis nula de que las medias de K poblaciones (K >2) son
iguales, frente a la hipótesis alternativa de que por lo menos una de las poblaciones difiere de las demás en
cuanto a su valor esperado. Este contraste es fundamental en el análisis de resultados experimentales, en los
que interesa comparar los resultados de K 'tratamientos' o 'factores' con respecto a la variable dependiente o
de interés.
El Anova requiere el cumplimiento los siguientes supuestos:
Las poblaciones (distribuciones de probabilidad de la variable dependiente correspondiente a cada factor) son
normales.
Las K muestras sobre las que se aplican los tratamientos son independientes.
Las poblaciones tienen todas igual varianza (homoscedasticidad).
El ANOVA se basa en la descomposición de la variación total de los datos con respecto a la media global
(SCT), que bajo el supuesto de que H0 es cierta es una estimación de obtenida a partir de toda la
información muestral, en dos partes:
Variación dentro de las muestras (SCD) o Intra-grupos, cuantifica la dispersión de los valores de cada
muestra con respecto a sus correspondientes medias.
Variación entre muestras (SCE) o Inter-grupos, cuantifica la dispersión de las medias de las muestras con
respecto a la media global.
4.8 selección del tamaño de muestra para estimar la diferencia de dos medias.
En ocasiones interesa definir un intervalo de valores tal que permita establecer cuáles son los valores mínimo
y máximo aceptables para la diferencia entre las medias de dos poblaciones. Pueden darse dos situaciones
según las muestras sean o no independientes; siendo en ambos casos condición necesaria que las
poblaciones de origen sean normales o aproximadamente normales:
MUESTRAS INDEPENDIENTES
Si puede suponerse que las varianzas de ambas poblaciones son iguales, el intervalo de confianza para la
diferencia de medias poblacionales está centrado en la diferencia de las medias muestrales, siendo sus
límites superior e inferior:
t /2 es el valor crítico correspondiente al grado de confianza 1- de la distribución t de Student con n1+ n2-2
grados de libertad y es una estimación de la desviación típica común a ambas
poblaciones obtenida a partir de las varianzas de las dos muestras. En la práctica si n1 y n2 son
moderadamente grandes, el valor crítico
t /2 se aproxima, como ya se ha visto anteriormente, a los valores de la distribución normal.
Si las varianzas poblacionales no pueden suponerse iguales los límites del intervalo de confianza son:
El valor crítico t /2 corresponde a una distribución t cuyos grados de libertad se calculan en base a ambos
tamaños muestrales y a las desviaciones típicas de cada grupo según la corrección propuesta por Dixon y
Massey:
Para obtener el intervalo de confianza en ambos casos la secuencia es:
Analizar
Comparar medias
Prueba T para muestras independientes
Los grupos pueden definirse en función de una variable cuantitativa o de una cualitativa. Si la variable de
agrupación presenta sólo dos valores o modalidades, entonces se debe seleccionar Usar valores
especificados e indicar la modalidad que define el grupo 1 y la del grupo 2. Si la variable tiene más de 2
valores o modalidades se elige la opción Punto de corte indicando el valor de la variable que induce una
partición en dos grupos, uno de los cuales estará formado por todos los casos con valores menores que el
especificado y el otro por el resto de casos.
Al aceptar se obtienen:
- resultados de la prueba de Levene para contrastar la igualdad de varianzas *
- resultados de la prueba T para contrastar la igualdad de medias
- intervalo de confianza para la diferencia de medias al 95% por defecto.
Si se quiere cambiar el grado de confianza del intervalo, antes de aceptar hay que modificarlo con el botón
Opciones.
MUESTRAS DEPENDIENTES. En este caso las muestras están formadas por parejas de valores, uno de
cada población y el estadístico se obtiene a partir de las diferencias de los valores de las dos variables
correspondientes a cada caso o di que se define como di= xi-yi.
Para contrastar la hipótesis de igualdad de medias y obtener el intervalo de confianza la secuencia es:
Analizar
Comparar medias
Prueba T para muestras independientes
4.9 aplicaciones