0% encontró este documento útil (0 votos)
49 vistas9 páginas

Pruebas No Paramétricas en Estadística

Este documento describe varias pruebas estadísticas no paramétricas, incluyendo la prueba de Ji cuadrado, la prueba binomial, la prueba de rachas, la prueba de Kolmogorov-Smirnov, la U de Mann-Whitney y la prueba Z de Kolmogorov. Cada prueba se utiliza para comparar distribuciones de frecuencias u otros datos que no cumplen los supuestos de las pruebas paramétricas como la normalidad. El documento explica los pasos y supuestos de cada prueba.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
49 vistas9 páginas

Pruebas No Paramétricas en Estadística

Este documento describe varias pruebas estadísticas no paramétricas, incluyendo la prueba de Ji cuadrado, la prueba binomial, la prueba de rachas, la prueba de Kolmogorov-Smirnov, la U de Mann-Whitney y la prueba Z de Kolmogorov. Cada prueba se utiliza para comparar distribuciones de frecuencias u otros datos que no cumplen los supuestos de las pruebas paramétricas como la normalidad. El documento explica los pasos y supuestos de cada prueba.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

ANÁLISIS

1. ESTADÍSTI Pruebas no Paramétricas


A diferencia de la estadística paramétrica, en la
que el CO investigador aspira encontrar en las
características de la muestra que ha
seleccionado, aquellas que distinguen a la población de donde ésta procede; hay dos formas
de actuar: 1) estimar el valor de un parámetro a partir de la muestra, y 2) contrastar si su
hipótesis es confirmada en la muestra, poniendo a prueba la hipótesis de las diferencias
nulas (Ho), la que de no confirmarse se explica por la hipótesis alterna (H1 ), que acepta
que esas diferencias existen dentro de cierto margen de probabilidad: cuando son
significativas (a nivel de una p < 0.05 o < 0.001) se rechaza la hipótesis nula y se acepta la
hipótesis alterna.2
1.1. Ji Cuadrado
Esta prueba de hipótesis se usa para comparar la posible diferencia entre las frecuencias
observadas en la distribución de una variable con respecto a las esperadas, en razón de una
determinada hipótesis.4,11-16 Por ejemplo: al comparar los resultados obtenidos con una
nueva técnica quirúrgica usada en 255 individuos intervenidos en comparación con la
técnica utilizada ordinariamente.

Pasos a seguir
Primero: Planteamiento de hipótesis estadísticas
Ho: Fo = Fe. Las frecuencias observadas son iguales a las frecuencias esperadas
Ha: Fo ≠ Fe. Las frecuencias observadas difieren de las frecuencias esperadas
Segundo: Disposición de ambas distribuciones de frecuencias. Para obtener la distribución
de frecuencias esperada (teórica) se aplican los porcentajes de los resultados de la técnica
quirúrgica tradicional al total de pacientes.
Tercero: Cálculo del valor de χ2 mediante la fórmula:

En donde: o = frecuencia observada en una modalidad.


e = frecuencia esperada en la misma modalidad.

Cuarto: Comparación de la χ 2 calculada con el valor crítico que aparece en el cuadro de χ 2


y conclusión respecto a las hipótesis planteadas.

Los grados de libertad se refieren, en esta prueba, al numero de modalidades menos una.
Como fue de cuatro modalidades (columnas) en el renglón a considerar, son 3 grados de
libertad (número de columnas menos uno); así, en la tabla de χ 2 al cruzar renglón de los
grados de libertad con las columnas de los niveles de significancia al 0.05 se obtiene un
valor crítico de p= 0.05 de 7.81 y al 0.01 es de 11.34. En vista de que el valor calculado de
la ji cuadrada rebasa, en ambos casos, los valores críticos de las tablas al nivel de 5 % y 1
%, se puede rechazar la hipótesis nula ( Ho: Fo = Fe ) con una p < 0.01.

1.2. Prueba binomial


La prueba binomial compara las frecuencias observadas en cada una de las dos categorías
de una variable dicotómica con respecto a las frecuencias esperadas bajo una distribución
binomial que tiene un parámetro de probabilidad específico que, por defecto, para ambas
categorías es 0.5. Para cambiar las probabilidades se puede ingresar una proporción de la
prueba para el primer grupo por lo que la probabilidad para el segundo será 1 menos la
probabilidad especificada para el primero. La prueba está basada en la distribución
binomial, que permite estimar que la probabilidad en una muestra de sujetos que puedan
proceder de una población binomial cuyo valor de p y q (donde q es la probabilidad
contraria) son similares a los de la población de donde se obtuvo la muestra. Se asume que:
1) Las observaciones son seleccionadas al azar, son independientes y se obtienen de una
sola muestra;
2) Los datos son de dos categorías distintas, que se les ha asignado un valor de 1 y 0. Esto
quiere decir que si la variable no es dicotómica se deben colapsar los datos en dos
categorías mutuamente excluyentes; y,
3) Se debe de especificar la probabilidad de ocurrencia de un evento en la población dada.
Esta proporción teórica puede venir de registros públicos, censos o investigaciones previas.
La prueba binomial está indicada cuando la variable a ser examinada es dicotómica, es
especialmente útil en casos de tamaño de muestra pequeños, que no se cumplen los
requisitos de la bondad de ajuste de la Ji cuadrada.

Pasos a seguir Primero: Planteamiento de hipótesis estadísticas


Ho: p = po Las frecuencias observadas son iguales a las frecuencias esperadas
Ha: p ≠ po Las frecuencias observadas difieren de las frecuencias esperadas.

Segundo. Conocer el número total de casos observados (N). Tercero. Conocer la frecuencia
de las ocurrencias en cada una de las categorías Cuarto. Se habla de valores binomiales, con
una N de 2-30, k de 0-30 y p desde 0.01 a 0.50. Quinto. Si la probabilidad asociada con el
valor observado de valores aún más extremos, es igual o menor al de alfa se rechaza la
hipótesis nula.12-16 Alternativa. Debido a que se utilizan sólo datos categóricos no hay
opción. Si la variable de la prueba no es dicotómica, por lo que se requiere considerar más
de dos categorías, se deberá usar la Ji cuadrada para bondad de ajuste.

1.3. Prueba de las rachas


La prueba de las rachas mide hasta qué punto en una variable dicotómica la observación de
uno de sus atributos puede influir en las siguientes observaciones; es decir, si el orden de
ocurrencia en la observación de uno de los atributos de una variable dicotómica ha sido por
azar. 12-16 Una racha es una secuencia de observaciones de un mismo atributo o cualidad.
Una serie de datos en los que hay muchas o pocas rachas, hacen pensar que éstas no han
ocurrido por azar. Alternativa. Para probar que dos muestras vienen de poblaciones con las
mismas distribuciones, se emplea la prueba de rachas sugerida por Wald-Wolfowitz.

1.4. Prueba de Kolmogorov-Smirnov


Para una muestra La prueba se usa para definir si el grado de ajuste de los datos a una
distribución teórica: que puede ser con tendencia a la normal, a la de Poisson o
exponencial. La prueba Z de Kolmogorov-Smirnov (K-S), se computa a partir de la
diferencia mayor (en valor absoluto) entre la distribución acumulada de una muestra
(observada) y la distribución teórica. La bondad de ajuste de la muestra permite suponer de
manera razonable, que las observaciones pudieran corresponder a la distribución específica.
La contribución de Kolmogorov 17 corresponde al problema relacionado con una sola
muestra, mientras que la de Smirnov 18 se ocupa de responder al problema respecto a dos
muestras, tratando de probar la hipótesis de igualdad entre las poblaciones de origen de una
con respecto a la de la otra. La prueba de K-S no precisa que las observaciones sean
agrupadas (como es el caso de la Ji cuadrada). Se usa en cualquier muestra de cualquier
tamaño, mientras que la Ji cuadrada requiere muestras con un tamaño mínimo. Esta prueba
no se debe usar cuando los parámetros tienen que ser estimados a partir de la población y es
útil, especialmente cuando se conoce la estructura en que subyace la distribución de la
variable en estudio. Es más poderosa que la Ji cuadrada, especialmente cuando el tamaño
de la muestra es pequeño y el nivel de medición de la variable es ordinal. Se considera más
poderosa que la Ji cuadrada y que la prueba binomial; requiere que la variable dependiente
sea una variable cuantitativa continua. Alternativa. No hay opción paramétrica. Una
alternativa no paramétrica es la prueba de bondad de ajuste de Ji cuadrada.12-16

1.5. La U de Mann-Whitney
es la más popular de las pruebas para el estudio de dos muestras independientes. Es
equivalente a la prueba de suma de rangos de Wilcoxon y a la prueba de dos grupos de
Kruskal-Wallis. Es la alternativa no paramétrica a la comparación de dos promedios
independientes a través de la t de Student. Se utiliza cuando se desea efectuar la
comparación de dos grupos en quienes se les ha medido una variable cuantitativa continua
que no tiene una distribución normal o cuando la variable es de tipo cuantitativa discreta.
Tiene tres asunciones:
1) La variable independiente es dicotómica y la escala de medición de la variable
dependiente es al menos ordinal;
2) Los datos son de muestras aleatorias de observaciones independientes de dos grupos
independientes, por lo que no hay observaciones repetidas;
3) La distribución de la población de la variable dependiente para los dos grupos
independientes comparte una forma similar no especificada, aunque con una posible
diferencia en las medidas de tendencia central. Las observaciones de ambos grupos se
combinan y acomodan, con el rango promedio en el caso de pares. El número de pares debe
ser pequeño en relación al número total de observaciones. Si las poblaciones son idénticas
en situación, los rangos deben mezclarse al azar entre las dos muestras. Se calcula el
número de veces que una cuenta del grupo 1 precede una cuenta del grupo 2 y el número de
veces que una cuenta del grupo 2 precede una cuenta del grupo 1. La U de Mann-Whitney
es el número más pequeño de estos dos números.
Alternativas. La alternativa paramétrica es la t de Student para muestras independientes,
que es más poderosa que la U de Mann-Whitney cuando se llenan todas las asunciones,
mientras que, si los datos no se distribuyen normalmente, el tamaño de muestra es pequeño,
los grupos son de diferente tamaño, la U de Mann-Whitney es más poderosa, sobre todo
cuando las colas de la distribución son grandes y hay la presencia de residuales. Una
alternativa no paramétrica que puede ser utilizada, sobre todo si las colas de la distribución
no son similares es la prueba de la mediana.

1.6. La prueba Z de Kolmogorov


Está basada en la diferencia absoluta máxima entre la función de distribución acumulada
observada para ambas muestras. Cuando esta diferencia es significativamente grande, las
dos distribuciones son consideradas diferentes. La prueba de las reacciones extremas de
Moses20 asume que la variable experimental afecta algunos sujetos en una dirección y
otros sujetos en la dirección opuesta. Se prueba las reacciones extremas comparadas a un
grupo de control. Esta prueba se enfoca en la distribución del grupo de control y es una
medida de cuantos valores extremos del grupo experimental influencian la distribución
cuando se combinan con el grupo de control. La prueba de rachas de Wald-Wolfowitz es
una alternativa no paramétrica para contrastar si dos muestras con datos independientes
proceden de poblaciones con la misma distribución. Combina y acomoda las observaciones
de ambos grupos. Si las dos muestras son de la misma población, los dos grupos deben
distribuirse al azar a lo largo de la clasificación jerárquica. Si hay pocas rachas habla de que
se tratan de grupos diferentes mientras que, si hay muchas rachas no hay diferencias
significativas en la distribución de los dos grupos.
1.7. La prueba Z de Kolmogorov-Smirnov y la prueba de rachas de Wald-Wolfowitz
Son pruebas más generales que detectan diferencias en la localización y formas de las
distribuciones.
1.8. La prueba de Kruskal-Wallis o de H
Es una extensión de la de U de Mann-Whitney; de cierta manera es el equivalente no
paramétrico del análisis de varianza de una vía y permite conocer si hay diferencias en las
distribuciones de la variable en estudio en las poblaciones. Su aplicación asume:
1) Que los datos provienen de un grupo aleatorio de observaciones;
2) Que la variable dependiente es, al menos, ordinal;
3) Que la variable independiente es nominal, con más de dos niveles;
4) Que las observaciones son independientes dentro de cada grupo y entre los grupos;
5) Que no hay medidas repetidas o categorías de respuestas múltiples; y, 5) que es similar
la forma en que la distribución de la variable dependiente dentro de cada uno de los grupos,
excepto por la posible diferencia de las medidas de tendencia central en al menos uno de
estos grupos. Se utiliza cuando la variable independiente tiene más de dos grupos y la
variable dependiente es cuantitativa continua. Alternativas. La alternativa paramétrica es el
análisis de varianza de una vía, en la que se asume la normalidad de la distribución dentro
de cada nivel de la variable dependiente y la igualdad de las varianzas entre los niveles de
la variable independiente. Las alternativas no paramétricas son la prueba de la mediana, la
Ji cuadrada de Mantel-Haenszel y la Ji cuadrada para varias muestras independientes. La
prueba de la mediana está indicada cuando la variable independiente es categórica y la
variable dependiente tiene, al menos, un nivel de medida de tipo ordinal, aunque ésta
habitualmente es cuantitativa continua, y se desea investigar diferencias entre dos o más
grupos con relación a su mediana, sea porque no cumplen las condiciones de normalidad
para usar el promedio como medida de tendencia central o porque la variable es cuantitativa
discreta. Se define como mediana al valor que en una serie ordenada de datos deja por
debajo de ella a la mitad de los valores y la otra mitad por arriba de ella. Responde a la
cuestión de que si dos o más grupos proceden de poblaciones que tienen distribuciones
similares. Es especialmente útil cuando los valores exactos de resultados extremos son
truncados por abajo o por arriba de cierto punto de corte. También está indicada cuando no
hay simetría en la forma de la U de Mann-Whitney. La prueba es directa, fácil de aplicar y
es particularmente útil cuando no se conocen los valores exactos de todos los resultados, en
especial en los valores extremos. La limitación es que esta prueba considera únicamente
dos posibilidades: por arriba o por debajo de la mediana, y no se toma en cuenta el tamaño
de la diferencia entre los resultados observados respecto a la mediana, por lo que es menos,
es de menor potencia que la U de Mann-Whitney y la H de Kruskal-Wallis. Alternativas.
Hay dos alternativas paramétricas que son: la t de Student, cuando la variable independiente
es dicotómica y, cuando la variable independiente tiene más de dos niveles, el análisis de
varianza de una vía. Las alternativas no paramétricas son la U de Mann-Whitney y la
prueba H de Kruskal-Wallis, las que generalmente se prefieren cuando se conoce el rango
exacto de valores de la variable dependiente, ya que se toma en cuenta el tamaño de las
diferencias entre los resultados observados y la gran mediana. Cuando, a priori, hay un
ordenamiento natural (ascendente o descendente) de las poblaciones, la prueba de
Jonckheere-Terpstra es más poderosa.

1.9. Prueba de rangos signados de Wilcoxon


Si los datos son binarios se usa la prueba de McNemar.27 La prueba del signo 1,2,12-16 es
una prueba simple, versátil y fácil de aplicar; puede ser usada para saber si una variable
tiende a ser mayor que otra. También es útil para probar la tendencia que siguen una serie
de variables ordinales positivas o para una valoración rápida de un estudio exploratorio. La
desventaja es que no toma en cuenta la magnitud de la diferencia entre dos variables
pareadas: computa las diferencias entre las dos variables para todos los casos y clasifica la
diferencia como positiva, negativa o empate. Si las dos variables tienen una distribución
similar, el número de diferencias positivas y negativas no diferirá significativamente.
Alternativas. La alternativa paramétrica es la t de Student pareada, aunque a la prueba del
signo se considera una eficiencia de 95% al compararla con la t de Student, por lo que esta
prueba es particularmente útil cuando el tamaño de las muestras es pequeño o cuando no se
cumplen los requisitos que exige una prueba paramétrica, como son que las variables sean
nominales o que las distribuciones estén sesgadas. Cuando las variables son, al menos,
ordinales, una alternativa no paramétrica es la prueba de rangos signados de Wilcoxon, que
permite una mejor valoración de las diferencias cuantitativas entre los pares de
observaciones. Rangos signados de Wilcoxon1,2,12-16 es una prueba flexible que se puede
utilizar en distintas situaciones, con muestras de diferente tamaño y con pocas restricciones.
Lo único que se requiere es que la variable sea continua y que sean observaciones pareadas,
es decir, que sean sujetos de una misma muestra con medidas pre y posprueba, o bien
sujetos que hayan sido pareados bajo criterios bien definidos. Contiene varias asunciones
críticas:
1) Que los datos sean observaciones pareadas, de una muestra seleccionada al azar u
obtenida por pares, o bien mediante sujetos considerados como sus propios controles.
2) Que los datos que se van a analizar sean continuos, o al menos ordinales, dentro y entre
las observaciones pareadas.
3) Que haya simetría en los resultados de las diferencias con la mediana verdadera de la
población. Para efectuar esta prueba se calculan las diferencias entre los pares de datos y se
registran los valores absolutos entre ellas. Luego, los valores absolutos de las diferencias
entre las dos variables se ordenan del valor menor al mayor y para finalizar, a cada rango se
le da un signo positivo o negativo, dependiendo del signo de la diferencia original.
Los signos positivos y los negativos se suman separadamente y se obtienen los promedios.
Los pares que no tienen cambio alguno se retiran del análisis. Se usa el valor de Z para
probar la hipótesis nula de la no diferencia entre los pares. Si la hipótesis nula es cierta, la
suma de los rangos positivos debe ser similar a los rangos negativos. Como la prueba de los
rangos signados de Wilcoxon incorpora más información acerca de los datos, es más
poderosa que la prueba del signo. Alternativas. La alternativa paramétrica es la t de Student
para muestras pareadas, o relacionadas.
Las alternativas no paramétricas son la prueba del signo y la prueba binomial.
1.10. Prueba de Mc Nemar.
Es especialmente útil cuando se tiene un diseño pre y posprueba, en el que el sujeto sirve
como su propio control y la variable dependiente es dicotómica.27 Se usa cuando hay una
situación en la que las medidas de cada sujeto se repiten, por lo que la respuesta de cada
uno de ellos se obtiene dos veces: una vez antes y la otra después de que ocurre un evento
específico: examina la extensión del cambio de la variable dicotómica antes y después del
evento. Si la frecuencia de la respuesta en una dirección es mayor de lo esperado por el
azar, se rechaza la hipótesis nula (de que no hay cambio alguno). Tiene cuatro presunciones
críticas:
1) Que la variable dicotómica que se va a medir tenga valores asignados para cada nivel
(ej: 0 y 1), con el mismo valor en los dos periodos;
2) Que los datos representen frecuencias, no valores;
3) Que las medidas dicotómicas sean observaciones pareadas, de la misma selección
aleatoria de sujetos o de sus pares;
4) Que los niveles de la variable dicotómica sean mutuamente excluyentes, lo que significa
que un sujeto sólo puede asignarse a un nivel de la variable dicotómica que va a ser
examinada en todo el tiempo. Para efectuar la prueba lo primero es colocar los datos en una
tabla de 2 x 2, en la que numéricamente se representen los cambios de cada individuo antes
y después de la intervención. Si los datos son categóricos se usa la prueba de homogeneidad
marginal; ésta es una extensión de la prueba de McNemar de la respuesta binaria y
considera una respuesta multinomial; prueba los cambios en las respuestas que se obtiene y
usa la distribución Ji cuadrada. Es útil para reconocer cambios de la respuesta debido a la
intervención experimental en diseños antes y después.
Alternativas. No hay alternativa paramétrica. Cuando hay más de dos periodos de
colección de datos (ej: preprueba, posprueba y seguimiento) se recomienda la Q de Cochran
y si los datos son continuos y ordenados adecuadamente, la alternativa no paramétrica es la
prueba del signo o la de Wilcoxon.

1.11. Prueba de Friedman.


Es una extensión de la prueba de Wilcoxon para incluir datos registrados en más de dos
periodos de tiempo o grupos de tres o más sujetos pareados, con un sujeto de cada grupo
que ha sido asignado aleatoriamente a una de las tres o más condiciones.28,29 La prueba
examina los rangos de los datos generados en cada periodo de tiempo para determinar si las
variables comparten la misma distribución continua de su origen. Es especialmente útil
cuando la variable dependiente es continua pero su distribución se encuentra sesgada.

Alternativas. La contraparte paramétrica es el análisis de varianza intrasujetos, cuando ésta


es medida de manera repetida. Se compara con la prueba de F del análisis de varianza y se
considera que tiene un poder del 64% cuando son dos series (k = 2), de 80% cuando k = 5 y
llega a ser de 87% cuando k = 10.
1.12. Prueba W de Kendall.
En cierta forma es una normalización de la estadística de Friedman.30 Se interpreta como
el coeficiente de concordancia, que es una medida de acuerdo entre los rangos. Cada caso
es una base o rango, y cada variable se considera un artículo o persona a juzgar. Para cada
variable se computa la suma de cada línea. Su valor final está comprendido entre 0 (ningún
acuerdo) y 1 (acuerdo completo). Tiene las mismas indicaciones que la prueba de
Friedman, aunque su uso en investigación ha sido, principalmente, para conocer la
concordancia entre rangos, más que para probar que hay una diferencia entre las medianas.

1.13. Q de Cochran.
Esta prueba es idéntica a la prueba de Friedman, pero se aplica cuando todas las respuestas
son binarias.31-33 Es una extensión de la prueba de McNemar ante la situación de k-
muestras. La Q de Cochran prueba la hipótesis de que varias variables dicotómicas que
están relacionadas entre sí, tienen el mismo promedio. En observaciones múltiples las
variables son medidas en el mismo individuo o en individuos pareados. Tiene la ventaja de
examinar cambios en las variables categóricas. Alternativas. N o tiene equivalente
paramétrico. Si los datos son continuos se prefiere la prueba de Friedman, en especial
cuando el tamaño de muestra es pequeño (< 16) y los datos son ordenados.

También podría gustarte