0% encontró este documento útil (0 votos)
204 vistas33 páginas

Métodos No Paramétricos en Estadística

Este documento describe tres métodos no paramétricos para realizar pruebas estadísticas: la prueba de signos, la prueba de rachas de Wald-Wolfowitz y la prueba U de Mann-Whitney-Wilcoxon. Estos métodos no requieren suposiciones sobre la distribución de probabilidad subyacente y pueden usarse cuando los datos no cumplen los supuestos de las pruebas paramétricas estándar. El documento explica los supuestos, estadísticos de prueba y ejemplos para cada uno de estos tres mé
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPTX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
204 vistas33 páginas

Métodos No Paramétricos en Estadística

Este documento describe tres métodos no paramétricos para realizar pruebas estadísticas: la prueba de signos, la prueba de rachas de Wald-Wolfowitz y la prueba U de Mann-Whitney-Wilcoxon. Estos métodos no requieren suposiciones sobre la distribución de probabilidad subyacente y pueden usarse cuando los datos no cumplen los supuestos de las pruebas paramétricas estándar. El documento explica los supuestos, estadísticos de prueba y ejemplos para cada uno de estos tres mé
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPTX, PDF, TXT o lee en línea desde Scribd

MÉTODOS NO

PARAMÉTRICOS
AUTOR: FELIPE PUCHA
INTRODUCCION

■ Cuando los supuestos no se cumplen en una prueba estadística, se pueden utilizar


los métodos no paramétricos. En estos métodos, se encuentran las pruebas no
paramétricas que son pruebas cuya hipótesis no corresponde a una afirmación
sobre un parámetro, y las pruebas de libre distribución donde su aplicación no
depende de la distribución de la variable de interés en la población de estudio. En
este contexto, las pruebas dentro de la estadística inferencial clásica se denominan
pruebas paramétricas.
Ventajas

■ Son más rápidos y fáciles de aplicar (cálculos aritméticos simples).


■ Con frecuencia son más fáciles de entender.
■ Son relativamente insensibles a datos atípicos.
■ El tipo de supuestos requeridos son en general más fáciles de cumplir.
■ Se pueden aplicar en muestras pequeñas donde no se pueden verificar los
supuestos de la estadística inferencial clásica.
■ Resuelven preguntas en nuevos escenarios, por ejemplo cuando se trabaja con
variables medidas en escalas nominales.
1. PRUEBA DE SIGNOS

Es la contraparte no paramétrica de la prueba t para pares correspondientes


■ Supuestos.
Se asume que la variable es continua, aunque la prueba se puede aplicar en variables
medidas al menos en una escala ordinal y donde tenga “sentido” la interpretación de la
mediana.
■ Hipótesis.
Hipótesis nula:
𝐻𝑜: 𝑀 = 𝑝 (p valor)
PRUEBA DE SIGNOS

■ Hipótesis alternativas:
1. 𝐻1 : 𝑀 ≠ 𝑝
2. 𝐻1 : 𝑀 > 𝑝
3. 𝐻1 : 𝑀 < 𝑝
Si cada valor de la variable se clasifica con signo “-” cuando es menor que 𝑝 o con
signo “+” cuando es mayor a 𝑝 tres hipótesis alternativas anteriores se pueden escribir
de la siguiente forma, respectivamente:
PRUEBA DE SIGNOS

1. 𝐻𝑎 : 𝑃(+) ≠ 𝑃(−)
2. 𝐻𝑎 : 𝑃(+) > 𝑃(−)
3. 𝐻𝑎 : 𝑃 + < 𝑃 −

Donde 𝑃(+) s la probabilidad de obtener una observación mayor a 𝑀 y 𝑃(−) es la


probabilidad de obtener una observación menor a 𝑀.
PRUEBA DE SIGNOS

■ Distribución asintótica.
Cuando las observaciones realizadas son iguales al valor M, entonces, no se puede
asignar un signo “+” o “-” a la observación. La anterior situación se puede denominar
como la presencia de ceros, para lo cual se plantea: Retirar las observaciones con
ceros (valores iguales a la p). Por lo que para esto se utiliza mayormente la distribución
asintótica:
PRUEBA DE SIGNOS

■ Distribución asintótica.
Para muestras de tamaño moderado, 12 o más observaciones, realizando el ajuste por
continuidad, la distribución binomial se puede aproximar a partir de la distribución
normal. De tal forma que:
𝑘 − 0,5 − 0,5 𝑛
𝑧= ~𝑁 0,1
0,5 𝑛
entonces, para un valor de k observado, a partir de la distribución normal estándar se
pueden obtener el valor p para cada hipótesis alternativa descrita anteriormente.
PRUEBA DE SIGNOS

■ Ejemplo en R :
Nueve laboratorios evaluaron la efectividad de un cierto medicamento obteniendo los
siguientes resultados: 0.41, 0.68, 0.52, 0.82, 0.45, 0.78, 0.96, 0.91 y 0.75. Se quiere
evaluar si el medicamento tiene una efectividad de 0.9.

El paquete BSDA incluye la prueba SIGN.test que permite evaluar la prueba del signo
para una muestra o para muestras emparejadas. A continuación se carga el paquete y
se crea un vector con los datos de efectividad observados:
PRUEBA DE SIGNOS

■ A continuación se carga el paquete y se crea un vector con los datos de efectividad


observados:
PRUEBA DE SIGNOS

■ Se corre la prueba del signo para las tres hipótesis alternativas y se obtienen los
siguientes resultados:
PRUEBA DE SIGNOS
PRUEBA DE SIGNOS
2. Prueba de rachas de Wald - Wolfowitz

■ Supuesto.
Aplica para variable de naturaleza continua, medida en una escala al menos ordinal.

■ Hipótesis.
Hipótesis nula: La distribución de la población del grupos X es igual a la distribución de
la población de grupo Y.
𝐻0: 𝐹𝑥 = 𝐹𝑦
Prueba de rachas de Wald - Wolfowitz

■ En las variables de tipo nominal, una racha es una sucesión de letras u otro símbolo
idénticos que van seguidos o precedidos de otra letra, símbolo, diversas letras o de
ninguna, si se encuentra en el inicio o al final de una sucesión.

■ Hipótesis alternativa:
𝐻1 : 𝐹𝑥 ≠ 𝐹𝑦
Prueba de rachas de Wald - Wolfowitz

■ Estadístico de prueba
El estadístico de prueba se conoce como rachas y se denota por r. Se obtiene de
ordenar de menor a mayor las observaciones de los datos de los dos grupos
combinados. A partir de este ordenamiento, r es el número de veces que se encuentran
valores consecutivos del mismo grupo.
Prueba de rachas de Wald - Wolfowitz

■ La prueba de rachas se puede obtener mediante las siguientes fórmulas:


2 𝑛1 𝑛2
𝜇𝑟 = 𝑀𝑒𝑑𝑖𝑎
𝑛1 +𝑛2

2𝑛1 𝑛2 2𝑛1 𝑛2 − 𝑛1 − 𝑛2
𝜗𝑅 = (𝐷𝑒𝑠𝑣𝑖𝑎𝑐𝑖ó𝑛 𝐸𝑠𝑡á𝑛𝑑𝑎𝑟)
𝑛1 + 𝑛2 2 𝑛1 +𝑛2 −1

𝑅 − 𝜇𝑅
𝑍𝑅 = (𝐷𝑒𝑠𝑣𝑖𝑎𝑐𝑖ó𝑛 𝑁𝑜𝑟𝑚𝑎𝑙)
𝜗𝑅
Prueba de rachas de Wald - Wolfowitz

■ Al construir el arreglo de datos de los dos grupos, ordenados de menor a mayor, si


las distribuciones de los dos grupos fueran iguales, es decir si 𝐻0 fuera verdadera,
se observaría un número alto de rachas ya que se verían los datos “muy
mezclados”, pero si las dos distribuciones fueran diferentes los valores de un
grupos se ubicarían en un cierto lugar del arreglo de datos ordenados obteniendo
un número bajo de rachas.
Prueba de rachas de Wald - Wolfowitz

■ Ejemplo:

Caso.
En un grupo de 12 hombres y 11 mujeres estudiantes de medicina se midió el tiempo
(horas por semana) de estudio extra clase con el fin de determinar si existen
diferencias entre los dos grupos. Se encontraron los siguientes resultados:
Hombres {5.6 4.8 5.7 7.0 5.4 3.4 5.4 8.0 3.4 4.7 4.8 5.0} y Mujeres {6.5 7.8 7.5 8.1 7.9
8.1 6.5 8.0 4.3 5.6 7.1}
Prueba de rachas de Wald - Wolfowitz

Al ordenar las observaciones de menor a mayor y marcar a los hombres con 1 y las
mujeres con cero, se obtiene un vector de la siguiente forma:
{1 1 0 1 1 1 1 1 1 1 0 1 0 0 1 0 0 0 0 1 0 0 0}
En el arreglo anterior se observan 10 rachas.
Prueba de rachas de Wald - Wolfowitz

■ Cargando el paquete randtests y creando un vector de 1 y 0 que contiene el arreglo


de los datos observados, se obtiene la prueba de Wald-Wolfowitz de la siguiente
forma:
Prueba de rachas de Wald - Wolfowitz
3. Prueba U de Mann Whitney - Wilcoxon

■ Cuando se quieren comparar las ubicaciones relativas de dos poblaciones o cuando


se quiere determinar si pertenecen a una misma población, dando por hecho que
se trabaja con muestras aleatorias independientes, se utiliza esta prueba.
■ Ésta es una alternativa a la prueba t de Student de dos muestras para medias. Se
puede recurrir a esta prueba no paramétrica cuando el supuesto de normalidad no
se cumple o el relativo a la igualdad de varianzas poblacionales.
Prueba U de Mann Whitney - Wilcoxon

■ Supuestos.
Se asume que la variable es de naturaleza continua, pero la prueba se puede aplicar en
variables medidas al menos en escala ordinal.
■ Hipótesis.
Hipótesis nula: La distribución de las dos variables son iguales.
𝐻0 : 𝐹𝑥 = 𝐹𝑦
Prueba U de Mann Whitney - Wilcoxon

■ Hipótesis alternativa:
1. 𝐻1 : 𝐹𝑥 ≠ 𝐹𝑦
2. 𝐻1 : 𝐹𝑥 > 𝐹𝑦
3. 𝐻1 : 𝐹𝑥 < 𝐹𝑦

Los datos están ordenados o clasificados del más bajo al más alto. No existe esfuerzo
alguno en hacer pares, al igual que como se ha hecho cuando se han tomado dos
muestras.
Prueba U de Mann Whitney - Wilcoxon

■ Estadístico de U de Mann-Whitney para la primera muestra:

■ Estadístico de U de Mann-Whitney para la segunda muestra:


Prueba U de Mann Whitney - Wilcoxon

■ Media de la distribución muestral para la prueba U de Mann-Whitney:

■ Desviación estándar de la distribución muestral para la prueba U de Mann-Whitney:


Prueba U de Mann Whitney - Wilcoxon

■ La distribución del estadístico U puede normalizarse mediante la fórmula del valor Z


para normalizar la prueba de U de Mann-Whitney donde es el valor de U apropiado,
entre o dependiendo de la naturaleza de la prueba. Permite determinar cual valor
de U es apropiado:

■ Supongamos que tenemos dos muestras aleatorias independientes de tamaños y


de dos poblaciones. Si se juntan las observaciones maestrales y se les adjudican
sus rangos, y representamos por 𝑅1 la suma de los rangos de la primera población,
el estadístico del contraste de Mann-Whitney es:
Prueba U de Mann Whitney - Wilcoxon

■ Ejemplo:

■ Caso.
A siete estudiantes se dictó una asignatura utilizando un método tradicional, mientras
que a seis estudiantes se dictó la misma asignatura utilizando un método nuevo. La
nota obtenidas al final del curso para los dos grupos fueron:
tradicional:{68 69 72 78 79 80 84} y nuevo:{60 64 68 70 72 73}
Prueba U de Mann Whitney - Wilcoxon

■ Para obtener esta prueba, a continuación cargamos el paquete exactRankTests y


creamos dos vectores con las notas de cada grupo.

■ Utilizando el comando wilcox.exact corremos la prueba U de Mann-Whitney a partir


de la distribución exacta y de la aproximación por la distribución normal estándar.
Prueba U de Mann Whitney - Wilcoxon
Prueba U de Mann Whitney - Wilcoxon

También podría gustarte