0% encontró este documento útil (0 votos)
58 vistas5 páginas

Tema 5

Este documento presenta diferentes pruebas estadísticas para contrastar hipótesis con una o dos variables. Explica la prueba t para muestras independientes y relacionadas, así como las pruebas no paramétricas de Mann-Whitney y Wilcoxon. También introduce medidas para cuantificar el tamaño del efecto estadístico.

Cargado por

adaya
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
58 vistas5 páginas

Tema 5

Este documento presenta diferentes pruebas estadísticas para contrastar hipótesis con una o dos variables. Explica la prueba t para muestras independientes y relacionadas, así como las pruebas no paramétricas de Mann-Whitney y Wilcoxon. También introduce medidas para cuantificar el tamaño del efecto estadístico.

Cargado por

adaya
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

FPM II

2º curso

TEMA 5: INFERENCIA CON 2 VARIABLES

Vamos a tener una VI (cualitativa) con 2 niveles y una VD (cuantitativa). Se pueden usar 2
muestras:

- Independientes: elementos que la componen no tienen relación significativa entre sí.


- Relacionadas: sus elementos tienen relación entre sí. Ej.: misma muestra usada 2 veces
o 2 muestras formadas por procedimientos de pares igualados.

1. CONTRASTE DE HIPÓTESIS CON 1 VARIABLE CATEGÓRICA Y 1 CUANTITATIVA

Sirven para realizar comparaciones entre medias de 2 grupos formados por categorías de
la variable categórica, de los niveles de la variable independiente. El objetivo es comparar
y/o relacionar variables.

➔ PRUEBA T PARA MUESTRAS INDEPENDIENTES

El contraste sirve para tomar decisiones del verdadero valor poblacional que corresponde
a la media de una variable, trabajando con 1 sola muestra. Para tomar decisiones sobre el
parámetro seguiremos los pasos vistos en el tema anterior.

Vamos a partir de 2 variables que para compararlas usaremos la media muestral, por lo
que para estimar la diferencia entre 2 medias poblacionales debemos usar las 2 medias
muestrales obtenidas de la recogida y análisis descriptivo de los datos.

Sabiendo que las 2 poblaciones son normales, las distribuciones muestrales serán
también normales e incluso que las diferencias entre medias muestrales se distribuyen
por la normal. Si no sabemos si la distribución de la población se distribuye por la normal,
sabemos que con tamaños muestrales grandes, las distribuciones tienden a la normal.
FPM II
2º curso

Por otro lado sabemos que cada vez que extraemos muestras de hombres y mujeres,
obtendremos distintos valores de las muestras porque los sujetos son diferentes. Por ello
se necesita un nuevo estimador llamado T que se distribuye por la t de Student con n1 +
n2 – 2 grados de libertad y que asume que las varianzas
poblacionales son iguales.

Los supuestos definen las condiciones por las que los estadísticos se ajustan a la
distribución muestral prevista, siempre hay que tener en cuenta si se cumplen o no. Para
el estadístico T, los supuestos que deben asumirse son:

- Independencia: tanto dentro de las muestras de cada grupo como de los diferentes
grupos. Se da por supuesto siempre pero se debe tener en cuenta.
- Normalidad: la variable debe ser cuantitativa de escala o de razón, no ordinal. Con un
tamaño muestral grande no afecta demasiado a los resultados.
- Homocedasticidad: igualdad de varianzas poblacionales. Es el más importante, se
cumple este supuesto cuando con tamaños muestrales iguales y normalidad porque
aunque las variables no sean iguales, el estadístico T sigue funcionando bien. Por
ende, no puede cumplirse con poblaciones normales con tamaños muestrales
diferentes. Para contrastar si se cumple o no se somete a
contraste la igualdad de varianzas entre 2 grupos o rechazamos
las hipótesis. Si no se cumple, debe usarse la prueba de Welch.
➔ MANN-WHITNEY

Su utilidad es la misma que la T de Student para muestras independientes pero que no


haya normal y la variable cuantitativa puede ser ordinal.

Si las 2 muestras se cogen de poblaciones idénticas (mismo promedio), se asume que los
estadísticos S1 y S2 deben ser aproximadamente iguales (la suma de los promedios de las
puntuaciones de ambos grupos deben ser similares). Si S1 y S2
fueran muy diferentes podríamos sospechar que no vienen de la
misma población.

Considerando que S1 + S2 = N (N+1)/2 podemos deducir S1 porque son complementarios.


El estadístico de contraste de esta prueba se denomina U y equivale a S1.

Para muestras pequeñas suele usarse la distribución exacta de


U, pero con muestras grandes suele recomendarse la
tipificación de U que permite usar la distribución normal:
FPM II
2º curso

2. MEDIDAS DEL TAMAÑO DEL EFECTO PARA DIFERENCIAR DOS GRUPOS


INDEPENDIENTES

El nivel de p sirve para saber si es falsa o no, pero no cuanto de falso es, para eso está el
tamaño del efecto. Un contraste de hipótesis no nos permite precisar el grado de
falsedad de una hipótesis nula, para ello usaremos el tamaño del efecto.

Es el grado en que el efecto estudiado está presente en la población. Por ejemplo, para el
grado en que una hipótesis nula es falsa tenemos el grado en que dos grupos difieren, el grado
de eficacia de un tratamiento, etc… Por tanto, la significación estadística de un resultado
empírico es un concepto muy diferente de la significación o importancia real de ese
resultado.

Para t de Student hay varias opciones de tamaño del efecto:

Para la prueba Mann-Whitney (no paramétrica = no se distribuye por la normal):


FPM II
2º curso

3. CONTRASTE DE HIPÓTESIS CON 2 VARIABLES CUANTITATIVAS


➔ PRUEBA T PARA MUESTRAS RELACIONADAS

Tengo 2 variables cuantitativas, normalmente, la misma variable medida en 2 momentos


temporales diferentes, aunque también pueden ser 2 variables distintas medidas en los
mismos sujetos.

En estas pruebas comparar no es lo mismo que relacionar. Comparar es comprobar si


los promedios de esas variables son iguales o no. Para poder comparar 2 variables
cuantitativas deben tener la misma unidad de medida. Relacionarlas es comprobar en
cómo variará una variable en la medida en que lo haga la otra. Pueden relacionarse
variables que no estén en la misma medida.

Estas muestras se relacionan porque son un mismo sujeto o 2 sujetos emparejados por
un vínculo relevante para el análisis. Considerando que cada sujeto tiene una puntuación
en cada variable, se pueden transformar las 2 puntuaciones en una diferencia. Por ello,
cada sujeto tendrá una sola puntuación de la diferencia entre las 2 variables.

Al resumir las puntuaciones de 2 variables en 1, podemos afirmar que vamos a manejar


una sola población (de diferencias) que tendrá media µD y varianza σ2D. Entonces, cogiendo
una muestra de esta población puede calcularse la media de la población considerando
que D = media de la primera muestra menos media de la segunda muestra. Sabiendo que
puede estimarse el valor esperado y la varianza, suele transformarse a la t de Student

con n-1 grados de libertad:

➔ PRUEBA DE WILCOXON PARA 2 MUESTRAS

Se usa para dos muestras donde no se asume o sabe la normalidad. Se calcula la


diferencia entre las 2 medidas y se desechan las que sean nulas, las negativas van en
valores absolutos. Posteriormente se asignan rasgos de 1 hasta n y luego se suman por
un lado los rangos positivos y por otro los negativos. Se obtiene así S+ y S-. Si las medias
de las medianas fuesen iguales, encontraríamos que P(Y1>Y2) = P(Y1<Y2).

4. TAMAÑO DEL EFECTO PARA 2 MUESTRAS RELACIONADAS

Una manera para evaluar la medida en que sus promedios difieren es usar una medida
estandarizada de la diferencia de las medias.
FPM II
2º curso

Para la prueba de Wilcoxon tenemos:

También podría gustarte