0% encontró este documento útil (0 votos)
191 vistas21 páginas

Trabajo Estadística No Paramétrica

Este documento presenta una introducción a las estadísticas no paramétricas y describe varias pruebas estadísticas no paramétricas comunes, incluidas las pruebas de Ji-cuadrada de independencia y bondad de ajuste, la prueba de los signos, la suma de rangos de Wilcoxon, Kruskal-Wallis, corridas de una sola muestra, correlación de rango de Spearman y Kolmogorov-Smirnov.

Cargado por

Jennifer Marcano
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
191 vistas21 páginas

Trabajo Estadística No Paramétrica

Este documento presenta una introducción a las estadísticas no paramétricas y describe varias pruebas estadísticas no paramétricas comunes, incluidas las pruebas de Ji-cuadrada de independencia y bondad de ajuste, la prueba de los signos, la suma de rangos de Wilcoxon, Kruskal-Wallis, corridas de una sola muestra, correlación de rango de Spearman y Kolmogorov-Smirnov.

Cargado por

Jennifer Marcano
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

UNIVERSIDAD DE ORIENTE

NÚCLEO DE MONAGAS
ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS
DEPARTAMENTO DE INGENIERÍA DE SISTEMAS
ESTADÍSTICA II

ESTADÍSTICAS NO
PARAMÉTRICAS

Profesor: Estudiante:
Harrys Coa Alexander Díaz. C.I: 26833748

marzo de 2020
INTRODUCCIÓN
Como se ha venido estudiando, en la estadística paramétrica se asume que la
población de la cual la muestra es extraída es normal o aproximadamente normal. Esta
propiedad es necesaria para que la prueba de hipótesis sea válida.
Durante mucho tiempo los estadísticos han preferido las técnicas paramétricas o han
optado por diversas transformaciones a fin de poder aplicarlas, dejando como recurso final
a las pruebas no paramétricas, sólo en los casos en los que no se ha podido encontrar
evidencia estadística de que la población sigue una distribución normal. Es decir, cuando
no tenemos parámetros a estimar, solo distribuciones que comparar. Esto se llama
estadística no paramétrica.
La estadística no paramétrica es una rama de la inferencia estadística cuyos cálculos
y procedimientos están fundamentados en distribuciones desconocidas. En otras palabras, la
estadística no paramétrica intenta averiguar la naturaleza de una variable aleatoria. Para, una
vez sabe cómo se comporta, realizar cálculos y métricas que la caracterizan. Su distribución
no puede ser definida a priori, pues son los datos observados los que la determinan. La
utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos
se ajusten a una distribución conocida, cuando el nivel de medida empleado no sea, como
mínimo, de intervalo. Una estadística no paramétrica está basada en un modelo que especifica
solo condiciones muy generales y ninguna acerca de la forma específica de la distribución de
la cual fue obtenida la muestra. Los procedimientos no paramétricos permiten probar
diferentes hipótesis acerca de la población, precisamente donde los procedimientos
paramétricos no actúan.
MARCO TEÓRICO:

Ji-cuadrada como prueba de independencia:


Se utiliza cuando se tiene una muestra de n individuos que se clasifican respecto a dos
variables, preferentemente cualitativas, y se desea conocer a partir de datos muestrales, si
existe asociación de estas a nivel poblacional.
- Hipótesis:
H0: Existe poblacionalmente independencia entre las variables estudiadas (no existe
asociación a nivel poblacional entre las variables estudiadas)
H1: No existe poblacionalmente independencia (existe asociación a nivel poblacional
entre las variables estudiadas)
- Distribución de la prueba estadística

Cuando Ho es verdadera, sigue una distribución X2 con (r-1)(c-1) grados de libertad. (r:
número de filas y c: número de columnas en la tabla de contingencia)
- Limitaciones

La muestra debe ser lo suficientemente grande. Si menos del 20% de las celdas de la tabla de
contingencia, presentan valores esperados ≤5 no se recomienda aplicar la prueba X2 y optar
por la alternativa del test exacto de Fisher.

Prueba de Ji-cuadrado Bondad de ajuste:


Se refiere a la comparación de la distribución de una muestra con alguna distribución teórica
que se supone describe a la población de la cual se extrajo la muestra. Se usa cuando es
necesario determinar si una muestra de valores observados para alguna variable aleatoria es
compatible con la hipótesis de que dicha muestra se extrajo de una población de valores con
distribución normal.

La aplicación de la prueba de bondad de ajuste chi cuadrado requiere:


 Que los datos estén agrupados en categorías o clases. Si los datos originalmente no se
encuentran agrupados será necesario agruparlos antes de aplicar el test de chi cuadrado para
lo cual será necesario construir una tabla de frecuencia o histograma.
Una desventaja potencial del test de chi cuadrado es que requiere una muestra
suficientemente grande de modo que la aproximación de chi cuadrado sea válida.
hipótesis nula e hipótesis alternativa son:
 Ho: Los datos se ajustan a una distribución dada.
 H1: Los datos no se ajustan a una distribución dada.

Donde la “distribución dada” corresponde a una distribución teórica específica (y con


una estimación de parámetros específicos) a la cual queremos ajustar nuestros datos
categorizados.

Prueba de los signos:

Se utiliza para probar si los valores de una muestra son menores o mayores que los valores
de otra muestra. Las variables deben ser continuas u ordinales y los valores puedan ser
jerarquizados.
Prueba de hipótesis
H0: No existe diferencia entre los grupos
H1: Existe diferencia

Prueba de la Suma de rangos de Wilcoxon:

Esta prueba se emplea en dos muestras independientes. Es análoga a la prueba


paramétrica t para dos muestras independientes. La variable debe de estar en escala
cuantitativa o al menos en escala ordinal.
Esta prueba es más potente que la de la Mediana ya que utiliza la información relativa
a la ubicación de cada observación en las muestras.
Hipótesis:
a. H0: MedA = MedB (La hipótesis nula equivale a decir que las dos poblaciones
difieren con respecto a su tendencia central)
H1: MedA ≠ MedB (donde A y B designan las dos muestras)
b. H0: MedB ≥ MedA
H1: MeB < MedA
c. H0: MedB ≤ MedA
H1: MedB > MedA
Permite probar la aleatoriedad de una secuencia de datos. También permite probar la simetría
de una distribución. Otra aplicación de esta prueba es comparar la distribución de una serie
de datos con un valor especificado
La prueba de la Suma de rangos de Wilcoxon y la prueba de Mann-Whitney son
completamente equivalentes; escoger una u otra es cuestión de conveniencia.
El estadígrafo de esta prueba es la t de Wilcoxon pero cuando el tamaño de la muestra
menor excede el valor 25 entonces se emplea el estadígrafo Z.
La prueba de Mann-Whitney se utiliza para resolver el mismo caso que resuelve la prueba
de suma de rangos de Wilcoxon con muestras no necesariamente del mismo tamaño. Se usa
para comprobar la heterogeneidad de dos muestras ordinales. El planteamiento de partida es:

- Las observaciones de ambos grupos son independientes.


- Las observaciones son variables ordinales o continuas.
Bajo la hipótesis nula, la distribución de partida de ambos grupos es la misma: P(X > Y) =
P(Y > X)
Bajo la hipótesis alternativa, los valores de una de las muestras tienden a exceder a los de la
otra: P(X > Y) + 0.5 P(X = Y) > 0.5.

Prueba de Kruskal Wallis:


Es una generalización de la prueba de suma de rangos de Wilcoxon, permitiendo comparar
más de dos muestras con el propósito de conocer si proceden de la misma población o si hay
diferencias entre las medidas de tendencia central de más de dos poblaciones.
La prueba de Kruskal–Wallis constituye una alternativa no paramétrica al análisis de
varianza usual y se considera como una extensión del procedimiento de suma de rangos de
Wilcoxon.
La hipótesis nula para la prueba de Kruskal-Wallis es que no existe diferencia entre los
tratamientos (𝜇1 = 𝜇2 = …. = 𝜇𝑎 ), mientras que la hipótesis alternativa es que exista
diferencia entre al menos un par de tratamientos ((𝜇𝑖 ≠ 𝜇𝑗 ).

Prueba de corridas de una sola muestra:

Una corrida es una secuencia de ocurrencias idénticas precedidas y seguidas de ocurrencias


diferentes o del todo por ninguna.
Una prueba de Corridas es un método que nos ayuda a evaluar el carácter de aleatoriedad de
una secuencia de números estadísticamente independientes y números uniformemente
distribuidos. Es decir, dado una serie de números determinar si son o no aleatorios.

Correlación de rango de Spearman:

Es una medida de la correlación (la asociación o interdependencia) entre dos variables


aleatorias (tanto continuas como discretas). Mide la fuerza y la dirección de la asociación
entre dos variables clasificadas. Para calcular ρ, los datos son ordenados y reemplazados
por su respectivo orden.
El estadístico ρ viene dado por la expresión:
n= número de puntos de datos de las dos variables
di= diferencia de rango del elemento “n”

El Coeficiente Spearman,⍴, puede tomar un valor entre +1 y -1 donde,

 Un valor de +1 en ⍴ significa una perfecta asociación de rango

 Un valor 0 en ⍴ significa que no hay asociación de rangos

 Un valor de -1 en ⍴ significa una perfecta asociación negativa entre los rangos.

Si el valor de ⍴ se acerca a 0, la asociación entre los dos rangos es más débil.

Debemos ser capaces de clasificar los datos antes de proceder con el coeficiente de
correlación de Spearman. Es importante observar que, si se incrementa una variable, la otra
sigue una relación monótona.

Prueba de Kolmogorov-Smirnov
En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S) es una prueba no
paramétrica que determina la bondad de ajuste de dos distribuciones de probabilidad entre
sí.
Es decir, permite medir el grado de concordancia existente entre la distribución de un
conjunto de datos y una distribución teórica específica. Su objetivo es señalar si los datos
provienen de una población que tiene la distribución teórica especificada, es decir, lo que
hace es contrastar si las observaciones podrían razonablemente proceder de la distribución
especificada.
Conviene tener en cuenta que la prueba Kolmogórov-Smirnov es más sensible a los valores
cercanos a la mediana que a los extremos de la distribución. La prueba de Anderson-
Darling proporciona igual sensibilidad con valores extremos.
La prueba de Kolmogórov-Smirnov aborda la siguiente pregunta: ¿Provienen las
observaciones de la muestra de alguna distribución hipotética?
En este caso, la hipótesis nula (H0) establecerá que la distribución empírica es similar a la
teórica. En otras palabras, la hipótesis nula establecerá que la distribución de frecuencias
observada es consistente con la distribución teórica (y que se da por lo tanto un buen
ajuste).
En contraste, la hipótesis alternativa (H1) establecerá que la distribución de frecuencias
observada no es consistente con la distribución teórica (mal ajuste). Como en otras pruebas
de contraste de hipótesis, el símbolo α (alfa) indicará el nivel de significación de la prueba.
RESOLUCIÓN DE EJERCICIOS:

1) JI-CUADRADA COMO PRUEBA DE INDEPENDENCIA:

Un investigador recolecta información sobre los patrones de actividad física (AF) de los
niños de quinto grado de primaria de una escuela pública. Define tres categorías de AF
(1, Baja; 2. Media; 3. Alta). También indaga sobre consumo regular de bebidas
azucaradas en la escuela y define dos categorías (1. Si consume; 0. No consume). Su
interés es evaluar si existe una asociación entre los patrones de AF y el consumo de
bebidas azucaradas en los niños de esta institución escolar con un nivel de significancia
del 5%. Los resultados se muestran en la siguiente tabla de valores observados:

Bebidas
azucaradas
Si No Total

Baja 32 12 44
AF Media 14 22 36

Alta 6 9 15

Total 52 43 95

Definimos la hipótesis de trabajo:


Ho: No hay asociación entre la práctica de actividad física y el consumo de bebidas
azucaradas en este grupo de escolares

H1: Si hay asociación entre la práctica de actividad física y el consumo de bebidas


azucaradas en este grupo de escolares

Con una significancia ∝ =0,05

Calculamos los grados de libertad (gl) para la prueba


(r= # filas, c= # columnas)
gl= (r-1) (c-1)
gl= (3-1) (2-1)
gl= (2) (1)
gl= 2

Establecemos el valor de critico (rechazo) de la Ho para la distribución 𝑿𝟐


Con los valores calculados de alfa y grados de libertad, se consulta en una tabla de
distribución de probabilidad X2 su valor crítico.
gl= 2 y alfa= 0,05 este valor es igual a 5,991
2
𝑋(2;0,05) =5,991

Calcule el valor para el estadístico de contraste (X2 para los datos del ejemplo:

Ya cuenta con los datos de los valores observados en el cuadro uno. Los valores esperados
en cada celda se calculan como el producto aritmético entre sus valores marginales (color
gris) dividido por el total de observaciones
así:

Calculo de valores esperados

Bebidas
azucaradas

Si No Total

Baja (52x44)/95 (43x44)/95 44

AF Media (52x36)/95 (43x36)/95 36

Alta (52/15)/95 (43x15)/15 15

Total 52 43 95

Luego tendremos que los valores esperados son:

Bebidas
azucaradas
Si No

Baja 24,1 19,9

AF Media 19,7 16,3

Alta 8,2 6,8


Se validad el supuesto de que menos del 20% de las celdas en la tabla tiene valores
esperados ≤5. En este caso se cumple el supuesto y no es necesario acudir a una prueba
exacta como el test exacto de Fisher.

Calculamos el valor de 𝑋 2 con la siguiente fórmula:

Donde Oi: Valor observado


Ei: Valor esperado

2 (32−24,1)2 (14−19,7)2 (6−8,2)2 (12−19,9)2 (22−16,3)2 (9−6,8)2


𝑋(2; 0,05)= ( )+( )+( )+( )+( )+( )
24,1 19,7 8,2 19,9 16,3 6,8

2
𝑋(2; 0,05)= 10,7

Por lo tanto, como el valor del estadístico es superior al valor crítico, concluimos que
debemos rechazar la hipótesis de independencia y por lo tanto asumir que existe relación
entre la práctica de actividad física y el consumo de bebidas azucaradas en este grupo de
escolares.

2) JI-CUADRADA COMO PRUEBA DE BONDAD DE AJUSTE.

El gerente de una planta industrial pretende determinar si el número de empleados que


asisten al consultorio médico de la planta se encuentran distribuido en forma equitativa
durante los 5 días de trabajo de la semana. Con base en una muestra aleatoria de 4
semanas completas de trabajo, se observó el siguiente número de consultas:

Lunes Martes Miércoles Jueves Viernes


49 35 32 39 45

Con a=0,05, ¿existe alguna razón para creer que el número de empleados que asisten al
consultorio médico, no se encuentra distribuido de forma equitativa durante los días de la
semana?

Una distribución uniforme lleva consigo que la probabilidad sería la misma para cada
día de la semana. Por tanto, pi=0,2 para i = 1, 2, 3, 4, 5.
Definimos las hipótesis
La hipótesis nula H0: pi=0,2 para i = 1, 2, 3, 4, 5.

H1: pi≠0,2
Dado que n=200, la frecuencia esperada para cada día de la semana es 200*0,2=40. Luego,
el valor del estadístico es:

Días Frecuencias Frecuencias (Oi-


Observadas(Oi) teóricas(Ei) Ei)2/Ei

Lunes 49 40 2,025

Martes 35 40 0,625

Miércoles 32 40 1,6

Jueves 39 40 0,025

Viernes 45 40 0,625

Suma 4,9

El estadístico sigue una chi-cuadrada con k-1 grado de libertad, con k=5. Luego
𝑋 2 =4,9
2
Por otro lado𝑋(2;0,05) en la tabla (0,05;4)= 9,48772846.

Como 4,9<9,48772846, no puede rechazarse la hipótesis nula. Con lo que se acepta que los
datos pertenecen a la distribución dada.

3) PRUEBA DE SIGNO PARA DATOS POR PARES


Alimentos El Gordito produce compotas en 12 sabores diferentes. Y con el fin de mejorar
las ganancias, su gerente general quiere disminuir costos de producción utilizando un tipo
de saborizante artificial, el cual ha sido desarrollado por el laboratorio de química de la
compañía, siendo éste una sustancia mucho más económica que la que actualmente se
utiliza. En este sentido realizó una prueba piloto, para saber cuál será la 51 tendencia en
el consumo de este alimento entre los niños menores de 2 años, una vez que, en todos sus
productos, aplique el nuevo tipo de saborizante. En la siguiente tabla se muestran los
resultados antes y después de la aplicación del nuevo saborizante:
Observación Antes Después

1 3 1
2 5 2
3 2 0
4 3 2
5 3 2
6 3 0
7 0 2
8 4 3
9 1 3
10 6 4
11 4 1
12 1 0
Utilice la prueba del signo de muestra en pares para probar la hipótesis nula de que el
nuevo saborizante no es efectivo en α = 0.05 .
Se definen las hipótesis:
. 𝐻0 : μ1 = μ 2

𝐻1 : μ1 > μ 2

Se rechazará la hipótesis nula si s ≥ 𝐾0,05 , donde s es el número de signos más

(diferencias positivas) y 𝐾0,05 es el entero más pequeño para el cual

Sustituyendo cada par de valores por el signo de su diferencia, se obtiene

Observación Antes Después Signo de


la
diferencia
1 3 1 +
2 5 2 +
3 2 0 +
4 3 2 +
5 3 2 +
6 3 0 +
7 0 2 -
8 4 3 +
9 1 3 -
10 6 4 +
11 4 1 +
12 1 0 +
Donde los signos definen el número de rechazos ocurridos antes y después de la aplicación
del saborizante indicando el signo de su diferencia, de manera que n = 12 y s = 10.
De la tabla de probabilidades binomiales se tiene que:
B (12,12,1/2) = 0.0002

B (11,12,1/2) = 0.0029 ,

B (10,12,1/2) = 0.0161 ,

B (9,12,1/2) = 0.0537 ,

Obteniéndose que 𝐾0,05 = 10 para n = 12.

Y como s = 10 es igual a 𝐾0,05 = 10, se debe rechazar la hipótesis nula y se concluye que el
nuevo saborizante es efectivo en el aumento de la demanda.

4) PRUEBAS DE SUMA DE RANGOS: U DE MANN- WHITNEY

En el desarrollo de un nuevo método para la determinación de niveles de alcohol en la sangre,


se analizó cinco veces una muestra de sangre, con los resultados siguientes: 64.5, 66.0, 63.9,
65.1 y 64.0 mg/100 ml. El método de análisis estándar aplicado a la misma muestra
proporciona los resultados 66.2, 65.8, 66.3, 65.6 mg/100ml. Probar si los métodos difieren
significativamente.

Definición de las hipótesis:


𝐻0 : 𝑀𝑒(método estándar) = 𝑀𝑒(método nuevo)

𝐻1 : 𝑀𝑒(método estándar) ≠ 𝑀𝑒(método nuevo)

Nivel de significancia α = 0.05

El primer paso consiste en asignar los rangos a los datos de ambas muestras como si
todos fueran una sola muestra, de la siguiente forma:
Método Rango Método Rango
nuevo estándar
65,5 4 66,2 8
66,0 7 65,8 6
63,9 1 66,3 9
65,1 3 65,6 5
64,0 2

La suma de rangos de cada muestra es:


Muestra del nuevo método = 17

Muestra del método estándar = 28

El estadístico viene dado por tanto como:


5(5+1)
= 17 - =2
2
Para S = 17 (menor de las sumas de rangos) y N = 5 (número de datos

para la muestra con la menor suma de rangos).


De esta forma To = 2

El valor de 𝑊(∝/2,𝑛1,𝑛2) obtenido en la tabla de Valores críticos para la prueba de suma de


rangos de Wilcoxon - mann-withney es 𝑊(∝/2,𝑛1,𝑛2) =1

Dado que To = 2 >𝑊(∝/2,𝑛1,𝑛2) =1, no existe evidencia a un nivel de significación del 5%


como para rechazar la hipótesis nula, o, en otras palabras, se concluye que no existe evidencia
significativa al 5% como para rechazar que los dos métodos producen resultados
equivalentes.

5) KRUSKAL-WALLIS

Se quiere comparar el trabajo de cuatro analistas de un laboratorio en el ensayo de


determinación del % de alcohol metílico en muestras de un producto químico, mediante la
técnica de
cromatografía líquida de alta resolución (HPLC). Los analistas reportaron los
resultados siguientes:

ANALISTA % DE ALCOHOL METÍLICO

1 84.99 84.02 84.38

2 85.15 85.13 84.88

3 84.72 84.48 85.16

4 84.20 84.10 84.55

Determinar si el trabajo de los analistas difiere significativamente. Use un nivel de


significación de 0.05

Definimos las hipótesis


HO : los cuatro analistas trabajan de forma equivalente, es decir: 𝑀𝑒1 = 𝑀𝑒2 = 𝑀𝑒3 = 𝑀𝑒4

H1 : al menos dos analistas trabajan de forma diferente

∝=0,05
El primer paso consiste en ordenar la serie de datos en orden ascendente como si procedieran
de la misma muestra, luego se establecen los rangos. La asignación de rangos se presenta en
la siguiente tabla:

Muestra Analista Analista Analista Analista


1 2 3 4
1 9 11 7 3
2 1 10 5 2
3 4 8 12 6
14 29 24 11
Como no hay empates, el estadístico de prueba será:

12 142 +292 +242 +112


H= ( ) – 3x13 = 5,46
12𝑥13 3
Criterio de decisión: si H > se rechaza la hipótesis nula.
En este caso = 7,81 según la tabla

Dado que 5.46 < 7.81, no existe evidencia significativa al 5% como para rechazar la hipótesis
nula, por lo que se concluye que no existe evidencia a un nivel de significación de 0.05, como
para afirmar que los analistas trabajan de forma diferente.

6) PRUEBA DE CORRIDAS DE UNA SOLA MUESTRA


Una presentación de ventas realizadas ante un grupo de 52 compradores potenciales culmino
en 27 ventas, 25 no- ventas y 18 rachas. Al nivel de significancia del 1%. ¿La muestra es
aleatoria?
Planteamiento de la hipótesis:
Ho = La muestra es aleatoria.
Ha= La muestra no es aleatoria (dos extremos).

Hallamos la desviación estándar y el valor medio del total de corridas observadas

2(27)(25)
= +1 = 26,96
27+25

(2.27.25)(2 .27 .25−27−25)


=√ = 3,56
(27+25)2 (27+25−1)

Calculamos la desviación normal:

18−26,96
= = -2,52
3,56

Al nivel de significancia de1%, el valor critico de Z para la prueba de dos colas es de 2.58
Existe evidencia suficiente para rechazar la hipótesis nula. Pareciera que la muestra es
aleatoria. Existe un 995 de seguridad de que un proceso aleatorio con 27 y 25 observaciones
en dos categorías y con 18 rachas, dieran un Z entre -+2.58.

7) CORRELACIÓN DE RANGO DE SPEARMAN


Los resultados de 9 estudiantes en Historia y Geografía se mencionan en la siguiente tabla.
Determine el coeficiente de correlación de rango de spearman.

Historia Geografía
35 30
23 33
47 45
17 23
10 8
43 49
9 12
6 4
28 31

Se procede a clasificar los dos conjuntos de datos. La clasificación de los datos puede
lograrse asignando la clasificación “1” al número más grande de la columna, “2” al
segundo número más grande, y así sucesivamente. El valor más pequeño generalmente
obtendrá la clasificación más baja. Esto debe hacerse para ambos conjuntos de mediciones.

Anexamos estos valores de rango a la tabla y agregaos también otra columna “d” que
denote la diferencia entre los rangos. Se añade también una columna para sus cuadrados

Historia Rango Geografía Rango d D^2


35 3 30 5 2 4
23 5 33 3 2 4
47 1 45 2 1 1
17 6 23 6 0 0
10 7 8 8 1 1
43 2 49 1 1 1
9 8 12 7 1 1
6 9 4 9 0 0
28 4 31 4 0 0
12
Calculamos el coeficiente con la fórmula:

6 𝑥12
=1 - = 0,9
9(81−1)

El coeficiente de correlación de Spearman para estos datos es de 0.9 y como se


mencionó anteriormente si el valor de ⍴ se acerca a +1 entonces tienen una asociación
perfecta de rango.

8) PRUEBA DE KOLMOGOROV- SMIRNOV

En una investigación, consistente en medir la talla de 100 niños de 5 años de edad, se desea
saber si las observaciones provienen de una población normal.

Tabla de 100 niños. Los valores X + s son 99.2 ± 2.85.

El modelo experimental tiene una muestra y es factible un arreglo en el carácter ordinal o


en los rangos de las series de clases

Planteamiento de la hipótesis.
Hipótesis alterna (Ha). Los valores observados de las frecuencias para cada clase son
diferentes de las frecuencias teóricas de una distribución normal.

Hipótesis nula (Ho). Las diferencias entre los valores observados y los teóricos de la
distribución normal se deben al azar.

Nivel de significación: Para todo valor de probabilidad igual o menor que 0.05, se acepta
Ha y se rechaza Ho.

Zona de rechazo: Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se
rechaza Ha.
Primero se elaboran los cálculos de los valores teóricos esperados para la distribución
normal.
Inicialmente se determina el valor Z de los límites de cada clase en la serie, por ejemplo: en
la primera clase se determinan el límite inferior y el superior (90 y 93), y en las
subsecuentes sólo los límites superiores (97, 101, 105 y 109). Para cada valor de Z, se
localiza el área bajo la curva norma tipificada.
Los cálculos de valores Z, son de la forma siguiente:

Y así sucesivamente.

Para cada valor Z, se localiza el área de la curva tipificada de la tabla de números


aleatorios. A partir de estos valores, se obtiene la diferencia entre los límites de clases entre
el superior y el inferior, por ejemplo: 0.4997 – 0.4793 = 0.020, 0.4793 – 0.2357 = 0.2436,
0.2357 – (-0.2794) = 0.5151, -0.2794 – (-0.4854) = 0.206 y -0.4854 – (-0.4994) = 0.014.

Estos resultados de diferencias se multiplican por el tamaño de la muestra (100 niños),


luego se obtienen las frecuencias teóricas y después se arreglan en frecuencias acumuladas.
Cálculos de los valores teóricos.

Las frecuencias acumuladas teóricas y las observadas se arreglan en los rangos


correspondientes, como se muestra en la siguiente tabla, y posteriormente se aplica la
fórmula de Kolmogorov-Smirnov.

D = ft – fobs = – 0.036
La diferencia máxima D es igual a -0.049, valor que se compara con los valores críticos de
D en la prueba muestral de Kolmogorov-Smirnov y se obtiene la probabilidad de la
existencia de esa magnitud de acuerdo con la prueba de Kolmogorov-Smirnov. El valor N
es 100 y el mayor número de N en la tabla es 35, por lo cual se aplica la fórmula al pie de la
tabla:
Para la probabilidad de:

Lo anterior quiere decir que para todo valor menor que el crítico para una probabilidad de
0.05, la probabilidad correspondiente es mayor que 0.05, y todo valor mayor que D al
calculado tinen una probabilidad menor que 0.05, o sea, es inversamente proporcional al
crítico determinado o localizado en la tabla.

En virtud de lo anterior, el estadístico de Kolmogorov-Smirnov obtendo es menor que


el crítico y su probabilidad mayor que 0.05, por lo tanto, se acepta Ho y se rechaza
Ha.
Las frecuencias observadas y las teóricas calculadas no difieren significativamente.
Por lo tanto, las observaciones tienen una distribución normal.
CONCLUSIÓN
En resumen, se puede sintetizar la estadística no paramétrica como una técnica alternativa a
la estadística paramétrica pues se observa que en un gran número de casos no se puede
determinar la distribución original ni la distribución de los estadísticos por lo que en realidad no
tenemos parámetros a estimar, descartando la posibilidad de utilizar estadística paramétrica.
Tenemos solo distribuciones que comparar: En este caso es donde aparece la estadística no
paramétrica, que a su vez se compone de diversas técnicas, como son las descritas en el presente
trabajo. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los
datos se ajusten a una distribución conocida, cuando el nivel de medida empleado no sea, como
mínimo, de intervalo.

Entre las ventajas más destacadas de la estadística no paramétrica tenemos:

- Si el tamaño de la muestra es muy pequeño, puede no haber otra opción que usar estadística no
paramétrica, a menos que la naturaleza de la distribución de la población se conozca con exactitud.

- Hacen menos suposiciones acerca de los datos y pueden ser más relevantes en una situación
particular. Además, las hipótesis probadas por una prueba no paramétrica pueden ser más
adecuadas para la investigación.

- Existen pruebas que son adecuadas para tratar muestras obtenidas de observaciones de
diferentes poblaciones. Las pruebas paramétricas a menudo no pueden manipular tales datos sin
exigirnos hacer suposiciones aparentemente irreales o requisitos pesados de computación.

- Las pruebas estadísticas típicamente son más fáciles de aprender y aplicar que las pruebas
paramétricas. Además, su interpretación suela ser más directa que la interpretación de las pruebas
paramétricas

Sin embargo, también se señalan algunas desventajas

- No son sistemáticas, mientras que las pruebas estadísticas paramétricas han sido sistematizadas y
diferentes pruebas son simplemente variaciones de un tema central.

- No se tiene una distribución fija para este tipo de estadística, por lo que en ocasiones puede ser
un problema elegir la adecuada.

- Las tablas necesarias para aplicar estadística no paramétrica están muy difundidas y aparecen en
diferentes formatos, por lo que podría provocar confusión en el investigador o la persona que este
aplicando una prueba no paramétrica.
BIBLIOGRAFIA
Miller, I. y Freund, J.E. (1986). Probabilidad y estadística para ingenieros. Tercera edición.
México: PRENTICE HALL HISPANOAMERICANA S.A.
Walpole, R. E. y Myers, R. H. (1992). Probabilidad y estadística. Cuarta edición. México:
Mc GRAW-HILL.
Frank. E. Rodríguez (2010). ESTUDIO DE MÉTODOS NO PARAMÉTRICOS - Informe
de pasantías presentado.
Claudia SantiEsteban (2016). Métodos no paramétricos. Estadística inferencial.
Referencias web:
https://economipedia.com/definiciones/estadistica-no-parametrica.html

https://es.slideshare.net/fretar26/estadistica-no-parametrica-42733044

https://sites.google.com/site/tecnicasdeinvestigaciond38/estadisticas-no-parametricas/3-1-
estadistica-no-parametrica

https://psicologiaymente.com/miscelanea/prueba-kolmogorov-smirnov
https://www.questionpro.com/blog/es/coeficiente-de-correlacion-de-spearman/
https://es.wikipedia.org/wiki/Prueba_de_Kolmogorov-Smirnov

También podría gustarte