100% encontró este documento útil (1 voto)
326 vistas44 páginas

Pruebas Paramétricas vs No Paramétricas

Este documento describe diferentes pruebas estadísticas paramétricas y no paramétricas. Explica la diferencia entre pruebas paramétricas y no paramétricas, y proporciona detalles sobre pruebas específicas como la prueba de los signos o binomial, la prueba de chi cuadrada, la prueba de rangos con signo de Wilcoxon, la prueba U de Mann-Whitney, la prueba de Kruskal-Wallis, la prueba t, el coeficiente de correlación de Pearson y el análisis de
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
326 vistas44 páginas

Pruebas Paramétricas vs No Paramétricas

Este documento describe diferentes pruebas estadísticas paramétricas y no paramétricas. Explica la diferencia entre pruebas paramétricas y no paramétricas, y proporciona detalles sobre pruebas específicas como la prueba de los signos o binomial, la prueba de chi cuadrada, la prueba de rangos con signo de Wilcoxon, la prueba U de Mann-Whitney, la prueba de Kruskal-Wallis, la prueba t, el coeficiente de correlación de Pearson y el análisis de
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

PRUEBAS

PARAMÈTRICAS Y

NO PARAMÈTRICAS
EL EQUIPO

García Ariel Mayén Karla Rojas Tanya Rivera AnA vILLALOBOS


yOLANDA
DIFERENCIA ENTRE PRUEBAS

PARAMETRICAS Y NO PARAMETRICAS

Pruebas parametricas Pruebas no parametricas

Se basan en modelos estadísticos Datos que no tienen una orgnizacion


robustos normal
Suponen una distribución normal Tienen en común la ausencia de
Cuantifican la asociación o asunciones
independencia entre una variable Se aplican cuando no sabemos si la
cuantitativa y una categórica población de la cual se extrae la
muestra es normal o
aproximadamente normal.
PRUEBA DE LOS SIGNOS O

BINOMIAL
Permite que el investigador establezca diferencias entre

dos mediciones realizadas a una misma muestra de

individuos o entre dos muestras relacionadas

Supuestos: la variable tenga continuidad y que sea

por lo menos de nivel de medición ordinal, puede ser

aplicada en muestras pequeñas o grandes.


H0=El tratamiento no produce efectos en los

niveles de Burnout de los trabajadores.


H1= El tratamiento disminuye los niveles de

Burnout de los trabajadores


PRUEBA DE CHI CUADRADA

Permite comparar diferencias entre grupos no

relacionados o independientes
Usa datos nominales

Comparando las frecuencias observadas de las

esperadas, que se obtienen por casualidad.


PRUEBA DE RANGOS CON

SIGNO DE WILCOXON
Compara 2 muestras relacionadas .
La variable de resultado (dependiente) es cualitativa

ordinal
Se compran las medianas

Para hipotesis unilateras y Bilateras


Usadas en aquellas que no cumplan los parametros

aunque tenga variables cuantitiativas.


Dos Colas
Una cola
PRUEBA U DE
MANN-
WHITNEY(U)
Prueba no paramétrica
Condiciones de uso:
Diferencias
Ordinal
No relacionado, solo dos grupos
independientes
Tres conjuntos de hipotesís
PRUEBA DE
KRUSKAL-WALLIS
(H)
Prueba no paramétrica
Condiciones de uso:
Diferencias
Ordinal
No relacionado, más dos grupos
Ecuación
PRUEBA T PARA (T) PARA DATOS

RELACIONADOS
Prueba T de Student para muestras relacionadas

Compara las medias de dos variables


de un solo grupo

Cuando una variable dependiente es


medida en la misma muestra en dos
tiempos distintos Estudios experimentales
Longitudinales
Estadístico de prueba
Pruebas de Hipotesis
Grados de libertad
Busca rechazar la Ho Nivel de significancia (0.05)

Quiere decir las diferencias entre las dos


mediciones no se deben al azar, ni por
cambios desconocidos

Cuando el valor critico sea < que el valor del estadistico de pruba, se puede

rechazar la Ho y se apoya la Hi, diciendo que existen diferencias entre una

preprueba y una posprueba


PRUEBA T PARA (T) PARA DATOS NO

RELACIONADOS
Prueba T de Student para muestras independientes

Cuando las muestras son de


poblaciones distintas

Para estudios con distintos tratamientos,


diferencia entre sexos.
COEFICIENTE
COEFICIENTE DE
DE CORRELACIÓN
CORRELACIÓN
DE
DE PEARSON
PEARSON
(Coeficiente r de Pearson)

Primero se debe determinar si existe o no una CONDICIONES DE USO


relación entre 2 variables cuantitativas . . . TIPO DE ESTUDIO: CORRELACIONAL
da
do
po
r

Si hay relación . . . tiene el objetivo de indicar que NIVEL DE


tan asociadas se encuentran las variables entre si. SIGNIFICANCIA
NIVEL DE SIGNIFICANCIA

α=0-1 Existencia o no de relación entre variables

Si es igual o menor que 0.05 significa que existe una


relación significativa.
Si es igual o menor que 0.01 significa que existe una
relación muy significativa.
Si es mayor a 0.05 significa que NO existe una relación
entre las variables.

COEFICIENTE R DE PEARSON LA CORRELACIÓN ES...


NULA SI r = 0
EL VALOR VARIA ENTRE -1 Y +1
Positiva si r > 0
Negativa si r < 0
Cuanto más se acerque el valor

Perfecta si r = ±1
r a los extremos, mayor será la

Fuerte si r ±0.8
correlación (inversa - o directa +) Moderada si ±0.5 < r < ±0.8
Débil si r≤ ±0.5
EJEMPLO:

1. Nivel de significancia = 0,000 = CORRELACIÓN MUY SIGNIFICATIVA**


2. Coeficiente de Pearson (r) = 0,882

EXISTE UNA CORRELACIÓN


POSITIVA ALTA O FUERTE ENTRE
LAS DOS VARIABLES
ANÀLISIS
ANÀLISIS DE
DE VARIANZA
VARIANZA
(ANOVA)
(ANOVA)

Se utiliza para determinar si existen diferencias


estadísticamente significativas entre las medias
de 3 o más grupos de estudio.

HIPÓTESIS
Sus hipótesis se formulan siempre iguales:

Ho: Las medias de los grupos son iguales.


H1: Al menos uno de los grupos tiene una media distinta al resto de los grupos.
PASOS PARA REALIZAR EL ANOVA
1. Calcular las MEDIAS de cada grupo ("promedio") = Y1, Y2, Y3

2. Calcular "n" (en caso de no saber el valor de n puede obtenerse con los datos de la tabla)

3. Calcular la GRAN MEDIA:


GM = (Y1 + Y2 + Y3) / #Y

4. Calcular la suma de los cuadrados totales (SCT):

5. Calcular la suma de cuadrados de grupos (SCTR):


SCTR = r (Yi - Y)²

6. Calcular la suma de cuadrados de error (SCE):


PASOS PARA REALIZAR EL ANOVA
7. Calcular el cuadrado medio total (CMT):
CMT= SCT / (n - 1)

8. Calcular el cuadrado medio de grupo (CMTR):


CMTR = SCTR / (c - 1)

9. Calcular el cuadrado medio de error (CME):


CME = SCE / (n - c)

10. Realizar la prueba de Fisher (distribución, grados de libertad, Fisher)

S = CMTR - CME gL = (c-1)/(n-c) Fisher = *buscar en tabla según los gL


EJEMPLO: Nivel de significancia α = 0,05
SE TIENEN TRES
G1 G2 G3
GRUPOS DE ESTUDIO:
Y = Media de c/grupo 8 3 3
Yi = Cada uno de los datos
#Y = Cantidad de medias (grupos)
6 2 4
n = Número de datos
GM = Gran media = Y
c = columnas / grupos 10 4 5
r = filas
a/b/c = valores de cada grupo (ej. a1, a2, a3, a4, b1, b2, b3, b4, c1, 9 3 4
c2, c3, c4)

1. Calcular las medias de cada grupo = Y1=8.25 Y2=3 Y3=4

2. Calcular "n" si no lo tenemos (c*r) = (3*4) = n = 12

3. Calcular la GM (Y) = (Y1+Y2+Y3)/ #Y = (8.25 + 3 + 4)/3 = 5.084


G1 G2 G3 TOTAL
8,53 4,33 4,33 17,19
0,85 9,49 1,17 11,51
24,20 1,17 0,006 25,38
15,37 4,33 1,17 20,87
TOTAL 48,95 19,52 6,68 74,95
4. Calcular la SCT = = 74,95

(8 - 5.084)² + (6 - 5.084)² + (10 - 5.084)² + (9 - 5.084)² + (3 - 5.084)² + (2 - 5.084)²


+ (4 - 5.084)² + (3 - 5.084)² + (3 - 5.084)² + (4 - 5.084)² + (5 - 5.084)² + (4 - 5.084)²
=?
5. Calcular la SCTR = r (Y123 - Y)² = 62,18
SCTR
G1 = 4 (Y1 - 5.084)² = 4 (8.25 - 5.084)² = 40,19
40,19 + 17,31 + 4,67 = 62,18
G2 = 4 (Y2 - 5.084)² = 4 (3 - 5.084)² = 17,31
G3 = 4 (Y3 - 5.084)² = 4 (4 - 5.084)² = 4,67
[Link] la SCE = = 12,74

G1 = (a1 - Y1)² + (a2 - Y1)² + (a3 - Y1)² + (a4 - Y1)²


= (8 - 8.25)² + (6 - 8.25)² + (10 - 8.25)² + (9 - 8.25)²
G1 G2 G3
= (0,06) + (5,06) + (3,06) + (0,56) = 8,74
0,06 0 1 1,06

G2 = (b1 - Y2)² + (b2 - Y2)² + (b3 - Y2)² + (b4 - Y2)² 5,06 1 0 6,06

= (3- 3)² + (2- 3)² + (4- 3)² + (3- 3)² 3,06 1 1 5,06
= (0) + (1) + (1) + (0) = 2 0,56 0 0 0,56
8,74 2 2 12,74
G3 = (c1- Y3)² + (c2 - Y3)² + (c3 - Y3)² + (c4- Y3)²
= (3 - 4)² + (4 - 4)² + (5 - 4)² + (4 - 4)²
= (1) + (0) + (1) + (0) = 2
Suma de Cuadrados Totales (SCT) = 74,95
Suma de Cuadrados de grupos (SCTR) = 62,18
Suma de Cuadrados de Error (SCE) = 12,74

10. Realizar la prueba de Fisher

7 .Calcular la CMT = SCT / (n - 1) = 6,81


S = CMTR / CME = 31,09 / 1,42 = 21,89
CMT = 74,95 / (12 - 1) = 74,95 / 11

gL = (c - 1)/(n - c) = (3-1)/12-3) = 2/9


8. Calcular el CMTR = SCTR / (c - 1) = 31,09
CMTR = 62,18 / (3 - 1) = 62,18 / 2
F=?

9. Calcular CME = SCE / (n - c) = 1,42


CME = 12,74 / (12 - 3) = 12,74 / 9

Estos datos nos sirven para realizar la prueba de Fisher


S = distribución gL = grados de libertad F = Distribución F de Fisher
Nivel de significancia (α= 0,05)
1 - (0,05) = 0,95
Ho: Las medias de los grupos son iguales. Si EP ≤ PC se acepta la Ho.
H1: Al menos una media es diferente. Si EP > PC se rechaza la Ho.

S = 21,89 ---> ESTADÍSTICO DE PRUEBA (EP)


F = 4,256 ---> PUNTO CRÍTICO (PC)
gL = 9
21,89 4,256

RECUERDA QUE . . .
PC = F = 4,256
la distribución Fisher siempre tiene
cola derecha
PRUEBA DE
FRIEDMAN
Es un análogo no paramétrico de
medidas repetidas de un factor.
Contrasta la hipótesis nula de que las
K variables relacionadas procedan de
la misma población.
PRUEBA DE
FRIEDMAN
Se utiliza:

Medir las puntuaciones medias de los sujetos durante


tres o más momentos: Frecuencia cardiaca antes, un
mes después y dos meses después.
Medir las puntuaciones medias de los sujetos en tres
condiciones diferentes: Calificar 3 peliculas diferentes
PRUEBA DE FRIEDMAN
Ejemplo: Supongamos que queremos saber si el tiempo medio de reacción de los sujetos
es diferente con tres fármacos diferentes. Para probar esto, reclutamos a 10 pacientes y
medimos cada uno de sus tiempos de reacción (en seg) con los tres medicamentos
diferentes. Paso 1: Expresar la hipótesis nula µ 1 = µ 2 = µ 3 y la
alternativa: al menos una media poblacional es diferente
del resto.
Paso 2: Realizar la prueba de Friedman
Test Statistic Q: 12.35000
p-value: 0.00208
El valor es menor que o.o5, se rechaza la hipótesis nula
de que el tiempo medio de respuesta es el mismo oara os
tres fármacos.
COEFICIENTE DE CORRELACION
DE SPEARMAN
Es una medida no paramétrica de la
correlación de rango.
Mide la fuerza y la dirección de la
asociación entre dos variables
clasificadas.
COEFICIENTE DE CORRELACION
DE SPEARMAN
n: no. de puntos de datos de las dos variables
di: diferencia de rango del elemento "n"

El Coeficiente Spearman,⍴, puede tomar un valor entre +1 y -1


donde,
Un valor de +1 en ⍴ significa una perfecta asociación de
rango
Un valor 0 en ⍴ significa que no hay asociación de rangos
Un valor de -1 en ⍴ significa una perfecta asociación
negativa entre los rangos.
Si el valor de ⍴ se acerca a 0, la asociación entre los dos rangos
es más débil.
Ejemplo:
Resultados de 9 estudiantes en Historia y
Geografía se mencionan en la siguiente tabla.
Paso 1: crear tabla
Paso 2: clasificar los dos conjuntos de datos,
clasificación “1” al número más grande de la
columna, “2” al segundo número más grande, y así
sucesivamente. El valor más pequeño
generalmente obtendrá la clasificación más baja.
Paso 3: Agrega una tercera columna “d” a tu
conjunto de datos, “d” aquí denota la diferencia
entre los rangos.

Paso 4: Sumar todos los valores del cuadrado “d” que es 12 ( d cuadrada).
Paso 5: Insertar estos valores en la fórmula.

=1-(6*12)/(9(81-1))
=1-72/720
=1-01
=0.9

El coeficiente de correlación de Spearman para estos datos es de 0.9. Si el


valor de ⍴ se acerca a +1 entonces tienen una asociación perfecta de rango.
GRACIAS

También podría gustarte