PRUEBAS
PARAMÈTRICAS Y
NO PARAMÈTRICAS
EL EQUIPO
García Ariel Mayén Karla Rojas Tanya Rivera AnA vILLALOBOS
yOLANDA
DIFERENCIA ENTRE PRUEBAS
PARAMETRICAS Y NO PARAMETRICAS
Pruebas parametricas Pruebas no parametricas
Se basan en modelos estadísticos Datos que no tienen una orgnizacion
robustos normal
Suponen una distribución normal Tienen en común la ausencia de
Cuantifican la asociación o asunciones
independencia entre una variable Se aplican cuando no sabemos si la
cuantitativa y una categórica población de la cual se extrae la
muestra es normal o
aproximadamente normal.
PRUEBA DE LOS SIGNOS O
BINOMIAL
Permite que el investigador establezca diferencias entre
dos mediciones realizadas a una misma muestra de
individuos o entre dos muestras relacionadas
Supuestos: la variable tenga continuidad y que sea
por lo menos de nivel de medición ordinal, puede ser
aplicada en muestras pequeñas o grandes.
H0=El tratamiento no produce efectos en los
niveles de Burnout de los trabajadores.
H1= El tratamiento disminuye los niveles de
Burnout de los trabajadores
PRUEBA DE CHI CUADRADA
Permite comparar diferencias entre grupos no
relacionados o independientes
Usa datos nominales
Comparando las frecuencias observadas de las
esperadas, que se obtienen por casualidad.
PRUEBA DE RANGOS CON
SIGNO DE WILCOXON
Compara 2 muestras relacionadas .
La variable de resultado (dependiente) es cualitativa
ordinal
Se compran las medianas
Para hipotesis unilateras y Bilateras
Usadas en aquellas que no cumplan los parametros
aunque tenga variables cuantitiativas.
Dos Colas
Una cola
PRUEBA U DE
MANN-
WHITNEY(U)
Prueba no paramétrica
Condiciones de uso:
Diferencias
Ordinal
No relacionado, solo dos grupos
independientes
Tres conjuntos de hipotesís
PRUEBA DE
KRUSKAL-WALLIS
(H)
Prueba no paramétrica
Condiciones de uso:
Diferencias
Ordinal
No relacionado, más dos grupos
Ecuación
PRUEBA T PARA (T) PARA DATOS
RELACIONADOS
Prueba T de Student para muestras relacionadas
Compara las medias de dos variables
de un solo grupo
Cuando una variable dependiente es
medida en la misma muestra en dos
tiempos distintos Estudios experimentales
Longitudinales
Estadístico de prueba
Pruebas de Hipotesis
Grados de libertad
Busca rechazar la Ho Nivel de significancia (0.05)
Quiere decir las diferencias entre las dos
mediciones no se deben al azar, ni por
cambios desconocidos
Cuando el valor critico sea < que el valor del estadistico de pruba, se puede
rechazar la Ho y se apoya la Hi, diciendo que existen diferencias entre una
preprueba y una posprueba
PRUEBA T PARA (T) PARA DATOS NO
RELACIONADOS
Prueba T de Student para muestras independientes
Cuando las muestras son de
poblaciones distintas
Para estudios con distintos tratamientos,
diferencia entre sexos.
COEFICIENTE
COEFICIENTE DE
DE CORRELACIÓN
CORRELACIÓN
DE
DE PEARSON
PEARSON
(Coeficiente r de Pearson)
Primero se debe determinar si existe o no una CONDICIONES DE USO
relación entre 2 variables cuantitativas . . . TIPO DE ESTUDIO: CORRELACIONAL
da
do
po
r
Si hay relación . . . tiene el objetivo de indicar que NIVEL DE
tan asociadas se encuentran las variables entre si. SIGNIFICANCIA
NIVEL DE SIGNIFICANCIA
α=0-1 Existencia o no de relación entre variables
Si es igual o menor que 0.05 significa que existe una
relación significativa.
Si es igual o menor que 0.01 significa que existe una
relación muy significativa.
Si es mayor a 0.05 significa que NO existe una relación
entre las variables.
COEFICIENTE R DE PEARSON LA CORRELACIÓN ES...
NULA SI r = 0
EL VALOR VARIA ENTRE -1 Y +1
Positiva si r > 0
Negativa si r < 0
Cuanto más se acerque el valor
Perfecta si r = ±1
r a los extremos, mayor será la
≥
Fuerte si r ±0.8
correlación (inversa - o directa +) Moderada si ±0.5 < r < ±0.8
Débil si r≤ ±0.5
EJEMPLO:
1. Nivel de significancia = 0,000 = CORRELACIÓN MUY SIGNIFICATIVA**
2. Coeficiente de Pearson (r) = 0,882
EXISTE UNA CORRELACIÓN
POSITIVA ALTA O FUERTE ENTRE
LAS DOS VARIABLES
ANÀLISIS
ANÀLISIS DE
DE VARIANZA
VARIANZA
(ANOVA)
(ANOVA)
Se utiliza para determinar si existen diferencias
estadísticamente significativas entre las medias
de 3 o más grupos de estudio.
HIPÓTESIS
Sus hipótesis se formulan siempre iguales:
Ho: Las medias de los grupos son iguales.
H1: Al menos uno de los grupos tiene una media distinta al resto de los grupos.
PASOS PARA REALIZAR EL ANOVA
1. Calcular las MEDIAS de cada grupo ("promedio") = Y1, Y2, Y3
2. Calcular "n" (en caso de no saber el valor de n puede obtenerse con los datos de la tabla)
3. Calcular la GRAN MEDIA:
GM = (Y1 + Y2 + Y3) / #Y
4. Calcular la suma de los cuadrados totales (SCT):
5. Calcular la suma de cuadrados de grupos (SCTR):
SCTR = r (Yi - Y)²
6. Calcular la suma de cuadrados de error (SCE):
PASOS PARA REALIZAR EL ANOVA
7. Calcular el cuadrado medio total (CMT):
CMT= SCT / (n - 1)
8. Calcular el cuadrado medio de grupo (CMTR):
CMTR = SCTR / (c - 1)
9. Calcular el cuadrado medio de error (CME):
CME = SCE / (n - c)
10. Realizar la prueba de Fisher (distribución, grados de libertad, Fisher)
S = CMTR - CME gL = (c-1)/(n-c) Fisher = *buscar en tabla según los gL
EJEMPLO: Nivel de significancia α = 0,05
SE TIENEN TRES
G1 G2 G3
GRUPOS DE ESTUDIO:
Y = Media de c/grupo 8 3 3
Yi = Cada uno de los datos
#Y = Cantidad de medias (grupos)
6 2 4
n = Número de datos
GM = Gran media = Y
c = columnas / grupos 10 4 5
r = filas
a/b/c = valores de cada grupo (ej. a1, a2, a3, a4, b1, b2, b3, b4, c1, 9 3 4
c2, c3, c4)
1. Calcular las medias de cada grupo = Y1=8.25 Y2=3 Y3=4
2. Calcular "n" si no lo tenemos (c*r) = (3*4) = n = 12
3. Calcular la GM (Y) = (Y1+Y2+Y3)/ #Y = (8.25 + 3 + 4)/3 = 5.084
G1 G2 G3 TOTAL
8,53 4,33 4,33 17,19
0,85 9,49 1,17 11,51
24,20 1,17 0,006 25,38
15,37 4,33 1,17 20,87
TOTAL 48,95 19,52 6,68 74,95
4. Calcular la SCT = = 74,95
(8 - 5.084)² + (6 - 5.084)² + (10 - 5.084)² + (9 - 5.084)² + (3 - 5.084)² + (2 - 5.084)²
+ (4 - 5.084)² + (3 - 5.084)² + (3 - 5.084)² + (4 - 5.084)² + (5 - 5.084)² + (4 - 5.084)²
=?
5. Calcular la SCTR = r (Y123 - Y)² = 62,18
SCTR
G1 = 4 (Y1 - 5.084)² = 4 (8.25 - 5.084)² = 40,19
40,19 + 17,31 + 4,67 = 62,18
G2 = 4 (Y2 - 5.084)² = 4 (3 - 5.084)² = 17,31
G3 = 4 (Y3 - 5.084)² = 4 (4 - 5.084)² = 4,67
[Link] la SCE = = 12,74
G1 = (a1 - Y1)² + (a2 - Y1)² + (a3 - Y1)² + (a4 - Y1)²
= (8 - 8.25)² + (6 - 8.25)² + (10 - 8.25)² + (9 - 8.25)²
G1 G2 G3
= (0,06) + (5,06) + (3,06) + (0,56) = 8,74
0,06 0 1 1,06
G2 = (b1 - Y2)² + (b2 - Y2)² + (b3 - Y2)² + (b4 - Y2)² 5,06 1 0 6,06
= (3- 3)² + (2- 3)² + (4- 3)² + (3- 3)² 3,06 1 1 5,06
= (0) + (1) + (1) + (0) = 2 0,56 0 0 0,56
8,74 2 2 12,74
G3 = (c1- Y3)² + (c2 - Y3)² + (c3 - Y3)² + (c4- Y3)²
= (3 - 4)² + (4 - 4)² + (5 - 4)² + (4 - 4)²
= (1) + (0) + (1) + (0) = 2
Suma de Cuadrados Totales (SCT) = 74,95
Suma de Cuadrados de grupos (SCTR) = 62,18
Suma de Cuadrados de Error (SCE) = 12,74
10. Realizar la prueba de Fisher
7 .Calcular la CMT = SCT / (n - 1) = 6,81
S = CMTR / CME = 31,09 / 1,42 = 21,89
CMT = 74,95 / (12 - 1) = 74,95 / 11
gL = (c - 1)/(n - c) = (3-1)/12-3) = 2/9
8. Calcular el CMTR = SCTR / (c - 1) = 31,09
CMTR = 62,18 / (3 - 1) = 62,18 / 2
F=?
9. Calcular CME = SCE / (n - c) = 1,42
CME = 12,74 / (12 - 3) = 12,74 / 9
Estos datos nos sirven para realizar la prueba de Fisher
S = distribución gL = grados de libertad F = Distribución F de Fisher
Nivel de significancia (α= 0,05)
1 - (0,05) = 0,95
Ho: Las medias de los grupos son iguales. Si EP ≤ PC se acepta la Ho.
H1: Al menos una media es diferente. Si EP > PC se rechaza la Ho.
S = 21,89 ---> ESTADÍSTICO DE PRUEBA (EP)
F = 4,256 ---> PUNTO CRÍTICO (PC)
gL = 9
21,89 4,256
RECUERDA QUE . . .
PC = F = 4,256
la distribución Fisher siempre tiene
cola derecha
PRUEBA DE
FRIEDMAN
Es un análogo no paramétrico de
medidas repetidas de un factor.
Contrasta la hipótesis nula de que las
K variables relacionadas procedan de
la misma población.
PRUEBA DE
FRIEDMAN
Se utiliza:
Medir las puntuaciones medias de los sujetos durante
tres o más momentos: Frecuencia cardiaca antes, un
mes después y dos meses después.
Medir las puntuaciones medias de los sujetos en tres
condiciones diferentes: Calificar 3 peliculas diferentes
PRUEBA DE FRIEDMAN
Ejemplo: Supongamos que queremos saber si el tiempo medio de reacción de los sujetos
es diferente con tres fármacos diferentes. Para probar esto, reclutamos a 10 pacientes y
medimos cada uno de sus tiempos de reacción (en seg) con los tres medicamentos
diferentes. Paso 1: Expresar la hipótesis nula µ 1 = µ 2 = µ 3 y la
alternativa: al menos una media poblacional es diferente
del resto.
Paso 2: Realizar la prueba de Friedman
Test Statistic Q: 12.35000
p-value: 0.00208
El valor es menor que o.o5, se rechaza la hipótesis nula
de que el tiempo medio de respuesta es el mismo oara os
tres fármacos.
COEFICIENTE DE CORRELACION
DE SPEARMAN
Es una medida no paramétrica de la
correlación de rango.
Mide la fuerza y la dirección de la
asociación entre dos variables
clasificadas.
COEFICIENTE DE CORRELACION
DE SPEARMAN
n: no. de puntos de datos de las dos variables
di: diferencia de rango del elemento "n"
El Coeficiente Spearman,⍴, puede tomar un valor entre +1 y -1
donde,
Un valor de +1 en ⍴ significa una perfecta asociación de
rango
Un valor 0 en ⍴ significa que no hay asociación de rangos
Un valor de -1 en ⍴ significa una perfecta asociación
negativa entre los rangos.
Si el valor de ⍴ se acerca a 0, la asociación entre los dos rangos
es más débil.
Ejemplo:
Resultados de 9 estudiantes en Historia y
Geografía se mencionan en la siguiente tabla.
Paso 1: crear tabla
Paso 2: clasificar los dos conjuntos de datos,
clasificación “1” al número más grande de la
columna, “2” al segundo número más grande, y así
sucesivamente. El valor más pequeño
generalmente obtendrá la clasificación más baja.
Paso 3: Agrega una tercera columna “d” a tu
conjunto de datos, “d” aquí denota la diferencia
entre los rangos.
∑
Paso 4: Sumar todos los valores del cuadrado “d” que es 12 ( d cuadrada).
Paso 5: Insertar estos valores en la fórmula.
=1-(6*12)/(9(81-1))
=1-72/720
=1-01
=0.9
El coeficiente de correlación de Spearman para estos datos es de 0.9. Si el
valor de ⍴ se acerca a +1 entonces tienen una asociación perfecta de rango.
GRACIAS