0% encontró este documento útil (0 votos)
57 vistas44 páginas

Pruebas de Bondad de Ajuste en Estadística

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
57 vistas44 páginas

Pruebas de Bondad de Ajuste en Estadística

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

INSTITUTO TECNOLÓGICO SUPERIOR DE COATZACOALCOS

CARRERA INGENIERÍA INDUSTRIAL


CICLO ESCOLAR AGOSTO-DICIEMBRE 2023

ASIGNATURA: ESTADÍSTICA INFERENCIAL 1

UNIDAD 4: PRUEBAS DE BONDAD DE AJUSTE Y PRUEBAS


NO PARAMETRICAS

NUMERO DE CONTROL: C22080666

Alumno: Hernández Jerónimo Briseida

Semestre grupo: 3AI

FACILITADOR: ING. JIMÉNEZ VENTURA BRICIO

Coatzacoalcos, ver. 27 de noviembre de 2023

Página 1 de 44
INDICE
INTRODUCCION ......................................................................................................................... 3
4 PRUEBA DE BONDAD DE AJUSTE Y PARAMETRICAS ................................................. 5
4.1.1 ANALISIS DE JI-CUADRADA .......................................................................................... 9
4.1.2 PRUEBA DE INDEPENDENCIA ................................................................................... 17
4.1.3 PRUEBA DE BONDAD DEL AJUSTE .......................................................................... 22
4.1.4 TABLAS DE CONTIGENCIA.......................................................................................... 23
4.2 PRUEBAS NO PARAMETRICAS ..................................................................................... 25
4.2.1 ESCALA DE MEDICION ................................................................................................. 28
4.2.2 MÉTODOS ESTADÍSTICOS CONTRA NO PARAMÉTRICOS ................................. 30
4.2.3 PRUEBA DE KOLMOGOROV – SMIRNOV ................................................................ 33
4.2.4 PRUEBA DE ANDERSON – DARLING........................................................................ 34
4.2.5 PRUEBA DE RYAN – JOINER ...................................................................................... 38
4.2.6 PRUEBA DE SHAPPIRO - WILK .................................................................................. 39
CONCLUSIÓN ........................................................................................................................... 41
GLOSARIO ................................................................................................................................. 42
REFERENCIAS ......................................................................................................................... 44

Página 2 de 44
INTRODUCCION

Las pruebas de bondad de ajuste e independencia son ampliamente utilizadas en


diversas áreas de la ciencia para llevar a cabo análisis de datos categóricos. Una
prueba de bondad de ajuste permite docimar la hipótesis de que una variable
aleatoria sigue cierta distribución de probabilidad y se utiliza en situaciones donde
se requiere comparar una distribución observada con una teórica o hipotética,
compararla con datos históricos o con la distribución conocida de otra población.
Por otra parte, una prueba de independencia permite determinar si existe
asociación estadística entre dos variables categóricas.

Las pruebas más utilizadas para estudiar la independencia y la bondad de ajuste


son las chicuadrado de Pearson, debido a su fácil aplicación y a que se encuentran
en todos los paquetes estadísticos. Estas pruebas asumen que todas las
observaciones son independientes y que están igualmente distribuidas, supuestos
que sólo se satisfacen para un muestreo aleatorio simple con reposición y se
cumplen aproximadamente en una muestra aleatoria simple sin reposición para
una fracción de muestreo pequeña.

Está bien documentado en la literatura, aunque no es conocido en la práctica, que


las pruebas chi-cuadrado de Pearson dan resultados extremadamente erróneos
cuando se aplican en datos obtenidos mediante diseños muestrales complejos,
donde no se cumplen los supuestos, tales como el muestreo sistemático,
estratificado, por conglomerados, probabilidad variable o cualquier otro muestreo
probabilístico diferente al muestreo aleatorio simple. Las implicaciones por el
reporte de resultados falsos pueden ser muy costosas, dependiendo de la
naturaleza del estudio que se esté realizando.

Es una práctica común ignorar la complejidad del diseño muestral y proceder


como si las pruebas chi-cuadrado de Pearson se comportaran de la misma forma
que lo hacen bajo un muestreo aleatorio simple. De acuerdo a este criterio, se
emplea un paquete estadístico estándar para aplicar las pruebas chi-cuadrado, lo
que conduce a niveles de significación bastante altos.

En años recientes se ha realizado una serie de investigaciones para desarrollar


nuevos métodos que tomen en cuenta la complejidad de la muestra. Algunos de
estos métodos son la prueba de Wald, los ajustes a las pruebas chi-cuadrado de
Pearson propuestos por Fay y las pruebas desarrolladas por Rao y Scott . Otros
autores también han sugerido pruebas alternativas y han estudiado el error tipo I
y la potencia de las pruebas chi-cuadrado de Pearson bajo diseños muestrales
que violan los supuestos, tales como el estratificado y por conglomerados .

El presente trabajo estudia el comportamiento de las pruebas chi-cuadrado de


Pearson de bondad de ajuste e independencia, cuando se aplican en datos
Página 3 de 44
obtenidos mediante el muestreo de parcelas de tamaño variable, también
conocido como el muestreo de Bitterlich o muestreo puntual. En este diseño
muestral se viola el supuesto de independencia de las observaciones, ya que una
vez que se elige el punto donde se aplica el muestreo, los árboles forman
conglomerados y, por tanto, están presentes las correlaciones espaciales.
Además, no se satisface el supuesto de igual probabilidad de selección para todas
las unidades muestrales, pues los árboles son seleccionados con probabilidad
proporcional a su área basal.

Para determinar si la violación de los supuestos afecta la validez de las pruebas


de bondad de ajuste e independencia de Pearson, la investigación se fundamenta
en la estimación del error tipo I de estas pruebas, aplicadas en datos obtenidos
mediante un muestreo de parcelas de tamaño variable. El error tipo I se define
como la probabilidad de rechazar la hipótesis nula siendo verdadera. También se
le conoce como nivel de significación ( ), y es fijado por el investigador. En este
trabajo se estableció un a igual a 0,05, el cual es comparado con el error tipo I
estimado a partir de un proceso de simulación ( ).

Igualmente, se evalúa el error tipo I de algunas pruebas de bondad de ajuste e


independencia que toman en cuenta el diseño muestral; estas son la prueba chi-
cuadrado de Pearson ponderada por las probabilidades de inclusión, la prueba de
Wald y las pruebas de Rao-Scott con corrección de primer y segundo orden.

Los resultados de este trabajo proporcionan a los investigadores forestales una


idea acerca de cuáles pruebas de bondad de ajuste e independencia deben o no
usarse, cuando se utiliza el muestreo con parcelas de tamaño variable, para evitar
llegar a conclusiones erróneas.

Página 4 de 44
4 PRUEBA DE BONDAD DE AJUSTE Y PARAMETRICAS

4.1 BONDAD DE AJUSTE

En una prueba estadística de este tipo la hipótesis nula es:

Ho: Pi = P io para i: 1, 2, ....., k

Donde Pi es la proporción de individuos que


pertenecen a la categoría i, Pio es la
proporción teórica de la categoría i, y k es el
número de categorías.

En las siguientes secciones se presentan las fórmulas de cálculo de las distintas


pruebas de bondad de ajuste aplicadas en esta investigación.

Prueba chi-cuadrado de Pearson: se basa en la diferencia entre las frecuencias o


proporciones observadas y las esperadas.
El estadístico de prueba es el siguiente:

Donde se obtiene al dividir número de


individuos de la categoría i observados entre
el total de individuos ( = ni / n).
2
El estadístico X p sigue una distribución
chicuadrado con k-1 grados de libertad.

Prueba chi-cuadrado de Pearson ponderada por las probabilidades de inclusión:


utiliza el mismo estadístico que la prueba chi-cuadrado de Pearson, con la
diferencia de que se calcula usando ponderaciones que consideran las
probabilidades de inclusión.

El estimador de pi es el siguiente:
Página 5 de 44
Donde j es la probabilidad de que el
individuo j sea seleccionado en la muestra
(probabilidad de inclusión del individuo j) y
Yij es una variable indicadora que vale 1 si
el individuo j pertenece a la categoría i y 0
en otro caso.

Prueba de Wald: toma en consideración la correlación existente dentro de


conglomerados, lo que hace que sea un procedimiento válido para probar la
bondad del ajuste en algunos diseños muestrales complejos.

El estadístico de Wald para probar la bondad de ajuste es:

Prueba de Rao-Scott con corrección de primer orden: esta prueba propone un


ajuste al estadístico chi-cuadrado de Pearson, siendo su propósito corregir la
esperanza asintótica de este estadístico.

El estadístico de prueba es el siguiente:

Página 6 de 44
Prueba de Rao-Scott con corrección de segundo orden: corrige la esperanza y la
varianza asintótica del estadístico chi-cuadrado de Pearson.

El estadístico con corrección de segundo orden es el siguiente:

Página 7 de 44
Página 8 de 44
4.1.1 ANALISIS DE JI-CUADRADA

Supongamos que un investigador está interesado en evaluar la asociación entre


uso de cinturón de seguridad en vehículos particulares y el nivel socioeconómico
del conductor del vehículo. Con este objeto se toma una muestra de conductores
a quienes se clasifica en una tabla de asociación, encontrando los siguientes
resultados:

Uso de Nivel Nivel Nivel TOTAL


cinturón socioeconómico socioeconómico socioeconómico
bajo medio alto

SI 8 15 28 51
NO 13 16 14 43

TOTAL 21 31 42 94

Tabla I. Tabla de asociación, valores observados.

¿Permiten estos datos afirmar que el uso del cinturón de seguridad depende del
nivel socioeconómico? Usaremos un nivel de significación alfa=0,05.

Los pasos del análisis estadístico en este caso son los siguientes:

1. En primer lugar se debe plantear las hipótesis que someteremos a prueba

H0: “El uso de cinturón de seguridad es independiente del nivel socioeconómico”.


H1: “El uso de cinturón de seguridad depende del nivel socioeconómico”.

En esta prueba estadística siempre la hipótesis nula plantea que las variables
analizadas son independientes.

2. En segundo lugar, obtener (calcular) las frecuencias esperadas

Página 9 de 44
Estas son las frecuencias que debieran darse si las variables fueran
independientes, es decir, si fuera cierta la hipótesis nula.

Las frecuencias esperadas se obtendrán de la distribución de frecuencias del total


de los casos, 51 personas de un total de 94 usan el cinturón y 43 de 94 no lo usan.
Esa misma proporción se debería dar al interior de los tres grupos de nivel
socioeconómico, de manera que el cálculo responde al siguiente razonamiento: si
de 94 personas 51 usan cinturón; de 21 personas, ¿cuántas debieran usarlo?

La respuesta a esta pregunta se obtiene aplicando la “regla de tres” y es 11,4.


Este procedimiento debe repetirse con todas las frecuencias del interior de la
tabla.

El detalle de los cálculos es el siguiente:

Nivel bajo: (21x51/94)=11,4-(21x43/94)=9,6


Nivel medio: (31x51/94)=16,8-(31x43/94)=14,2
Nivel alto: (42x51/94)=22,8-(42x43/94)=19,2

Estas son las frecuencias que debieran presentarse si la hipótesis nula fuera
verdadera y, por consiguiente, las variables fueran independientes.

Estos valores los anotamos en una tabla con las mismas celdas que la anterior;
así tendremos una tabla con los valores observados y una tabla con los valores
esperados, que anotaremos en cursiva, para identificarlos bien.

Uso de cinturón Nivel bajo Nivel medio Nivel alto TOTAL


SI 11,4 16,8 22,8 51
NO 9,6 14,2 19,2 43

TOTAL 21 31 42 94

Tabla II. Tabla de asociación, valores esperados.

3. En tercer lugar se debe calcular el estadístico de prueba

Página 10 de 44
En este caso, el estadístico de prueba es Ji-cuadrado que, como dijimos al
comienzo, compara las frecuencias que entregan los datos de la muestra
(frecuencias observadas) con las frecuencias esperadas, y tiene la siguiente
fórmula cálculo:

donde oi representa a cada frecuencia observada y ei representa a cada


frecuencia esperada.

De este modo el valor del estadístico de prueba para este problema será:

Entonces Este es el valor de nuestro estadístico de prueba que ahora,


siguiendo el procedimiento de problemas anteriores (paso 4), debemos comparar
con un valor de la tabla de probabilidades para ji-cuadrado (x2). Esta tabla es muy
parecida a la tabla t de student, pero tiene sólo valores positivos porque ji-
cuadrado sólo da resultados positivos. Véase gráfico 1, que muestra la forma de
la curva, con valores desde 0 hasta infinito.

Gráfico 1.

Dado que el estadístico ji cuadrado sólo toma valores positivos, la zona de


rechazo de la hipótesis nula siempre estará del lado derecho de la curva.

Página 11 de 44
Uso de tabla ji-cuadrado

La tabla de ji-cuadrado tiene en la primera columna los grados de libertad y en la


primera fila la probabilidad asociada a valores mayores a un determinado valor
del estadístico (véase gráfico de la tabla III).
Los grados de libertad dependen del número de celdas que tiene la tabla de
asociación donde están los datos del problema y su fórmula de cálculo es muy
sencilla:

Grados de libertad (gl)=(nº de filas–1)x(nº de columnas–1)

Así, en nuestro ejemplo, en que hay 2 filas y 3 columnas, los grados de libertad
serán:

gl=(2-1)x(3-1)=2

Nótese que no se consideran la fila ni la columna de los totales.

Tabla III. Tabla de ji-cuadrado.

Página 12 de 44
Al comienzo elegimos un nivel de significación alfa=0,05. Entonces un valor de
tabla para x2 asociado a 2 grados de libertad y alfa 0,05 es 5,99.

Por lo tanto, como en el gráfico 2 vemos que 5,23 se encuentra a la izquierda de


5,99, la probabilidad asociada a valores superiores a 5,23 es mayor que alfa
(0,05).

Gráfico 2.

Según esto, debemos aceptar la hipótesis nula que plantea que las variables “uso
de cinturón de seguridad” y “nivel socioeconómico” son independientes.
Limitación: como norma general, se exige que el 80% de las celdas en una tabla
de asociación tengan valores esperados mayores de 5.

Ji-cuadrado como prueba de bondad de ajuste

También se puede usar el estadístico ji-cuadrado para evaluar cuán buena puede
resultar una distribución teórica, cuando pretende representar la distribución real
de los datos de una muestra determinada. A esto se le llama evaluar la bondad
de un ajuste. Probar la bondad de un ajuste es ver en qué medida se ajustan los
datos observados a una distribución teórica o esperada.

Tomemos como ejemplo la distribución esperada para los individuos de una


población que son clasificados según grupo sanguíneo. Según estudios
realizados en población, se espera que dicha distribución, en porcentajes, sea la
siguiente:

Página 13 de 44
Grupo Frecuencia esperada
AB 2,0%
A 30,5%
B 9,3%
0 58,2%

Tabla IV. Ejemplo de distribución esperada.

En una muestra de 150 dadores de sangre se encontró la siguiente distribución:

Grupo Frecuencia observada


AB 4
A 48
B 15
0 83

Tabla V. Ejemplo de distribución observada.

1. Las hipótesis del problema son:

H0: los datos se ajustan a la distribución teórica.


H1: los datos no se ajustan a la distribución teórica.

2. Siguiendo el esquema general de solución propuesto para las pruebas de


hipótesis, ahora corresponde elegir un nivel de significación

Elegimos entonces alfa=0,01. El estadístico de prueba será ji-cuadrado, cuya


fórmula es:

Página 14 de 44
Debemos calcular las frecuencias esperadas en nuestro grupo. Si aplicamos los
porcentajes esperados a la muestra de 150 casos podemos obtener las siguientes
frecuencias esperadas (ei):

Grupo Frec. oi Frec. ei


AB 4 3,00
A 48 45,75
B 15 13,95
0 83 87,30
Total 150 150,00

Tabla VI. Ejemplo de frecuencias esperadas.

Los grados de libertad de esta tabla se obtienen restando 1 al número de filas, en


este caso: gl=4-1=3
Recordemos que la fila del total no se considera para los grados de libertad.

Si ya tenemos las frecuencias observadas y esperadas, podemos proceder a


evaluar la diferencia entre ellas utilizando el estadístico ji-cuadrado. Si la
diferencia entre frecuencias observadas y esperadas es grande, significará que la
hipótesis nula es falsa, o sea, esta distribución no se ajusta a la distribución teórica
y si, en cambio, resulta que la diferencia entre frecuencias observadas y
esperadas no es muy grande, significará que la hipótesis nula es verdadera; por
lo tanto, la distribución en la muestra se ajusta a la distribución teórica y diremos
que no hay significación estadística.

El valor del estadístico de prueba (x2) es una medida de la diferencia entre


frecuencias observadas y esperadas; por lo tanto, mientras mayor resulte , más
fácil será rechazar la hipótesis nula.

3. Se calcula el estadístico de prueba con los datos del ejemplo

Página 15 de 44
4. Se compara este valor con el valor de ji-cuadrado de la tabla

El valor de ji-cuadrado lo buscaremos con alfa=0,01 y 3 grados de libertad. Según


tabla, ese valor es 11,34.
Al comparar el valor del estadístico de prueba (0,73) con el valor de tabla (11,34),
vemos que 0,73 se encuentra a la izquierda de 11,34 desplazado hacia el centro
de la curva y que, por lo tanto, la probabilidad de valores mayores a él es muy
superior al nivel de significación alfa=0,01.

5. Conclusión

Dado que la probabilidad de es mayor que alfa, se acepta la hipótesis


nula. Esto significa que los datos observados se ajustan a la distribución teórica,
por lo tanto las diferencias observadas no son estadísticamente significativas.

6. Gráfico

Gráfico 3. Prueba de bondad de ajuste.

Página 16 de 44
4.1.2 PRUEBA DE INDEPENDENCIA

Para analizar la independencia entre dos variables categóricas, la variable 1 con


r categorías y la variable 2 con c categorías, los datos se organizan en una tabla
de contingencia como la que se muestra a continuación:

Variable 1 Variable 2 Total

1 2 ....... C

P12
1 P11 ......... P1c P1.
P22
2 P21 ......... P2c P2.
· . . . . ·
· . . . . ·
· . . . . ·
r Pr1 Pr2 ......... Prc PR .
Total P.1 P.2 ......... P .c n

La hipotesis nula de independencia es:

Ho: pij=pi.xpj para i=1, ..., rJ=1, ....., c

Prueba chi-cuadrado de Pearson: utiliza un estadístico de prueba basado en la


diferencia entre los valores observados y los esperados.

El estadístico chi-cuadrado de Pearson es:

Página 17 de 44
El estadístico X2p se distribuye
aproximadamente como una
variable aleatoria chi-cuadrado con
(r-1)(c-1) grados de libertad.

Prueba chi-cuadrado de Pearson ponderada por las probabilidades de inclusión:


utiliza el mismo estadístico de la prueba chi-cuadrado de Pearson clásica, pero el
estimador está ponderado por las probabilidades de inclusión, tal como puede
observarse en la ecuación 11.

Donde es la proporción estimada para el


grupo o celda i,j ; k es la probabilidad de
que el individuo k sea seleccionado en la
muestra (probabilidad de inclusión del
individuo k); y Yijk es una variable indicadora
que vale 1 si el individuo k pertenece a la
celda i,j y 0 en otro caso.

Prueba de Wald: para aplicar esta prueba se reformula la hipótesis nula de


independencia Ho: pij = pi. x p.j , en una hipótesis equivalente Ho: Fij = pij - pi. x
p.j = 0. Los valores Fij se denominan diferencias residuales.

Página 18 de 44
El estadístico de prueba o estadístico de Wald es el siguiente:

Prueba de Rao-Scott con corrección de primer orden: el estadístico que utiliza


esta prueba de independencia es el mismo de la ecuación 4, pero se calcula de
acuerdo a la ecuación 13.

Donde es el estimador de la varianza


de es el estimador de la proporción
marginal para la fila i: y es el estimador de
la proporción marginal para la columna j.

El estadístico de Rao-Scott con corrección de primer orden se distribuye


aproximadamente como una chi-cuadrado con (r-1)(c-1) grados de libertad.

Página 19 de 44
Prueba de Rao-Scott con corrección de segundo orden: a continuación se
especifican los pasos que deben seguirse para aplicar esta prueba de
independencia (16).

1. Construir dos vectores denominados Y y P, los cuales tienen la siguiente forma:

2. Calcular la matriz de covarianza del vector Y, llámese B.


3. Calcular los grados de libertad g mediante la siguiente fórmula:

Página 20 de 44
Siendo Bij es elemento i,j de la matriz de covarianza del vector Y; y Pi es el
elemento i del vector P.
4. Calcular el estadístico de Rao-Scott usando la siguiente expresión:

Donde X2pp es el estadístico chi-cuadrado


de Pearson ponderado por las
probabilidades de inclusión.

El estadístico X2RS2 se distribuye aproximadamente como una variable aleatoria


chi-cuadrado con g grados de libertad.

La prueba de independencia es un procedimiento estadístico utilizado para


evaluar si existe alguna relación entre dos variables categóricas en un conjunto
de datos. En esencia, busca determinar si la ocurrencia o la distribución de una
variable está influenciada por la presencia o ausencia de ciertos valores en la otra
variable.

Para llevar a cabo esta prueba, se emplean tablas de contingencia que organizan
los datos en filas y columnas según las diferentes categorías de las variables. La
prueba de independencia se basa en la comparación de las frecuencias
observadas en estas tablas con las frecuencias que se esperarían si las dos
variables fueran independientes.

El estadístico chi-cuadrado es comúnmente utilizado en las pruebas de


independencia. Se calcula a partir de las diferencias entre las frecuencias
observadas y las frecuencias esperadas bajo la hipótesis nula de independencia
entre las variables. Si el valor calculado del estadístico chi-cuadrado es
suficientemente grande y supera un umbral crítico determinado por el nivel de
significancia elegido, se rechaza la hipótesis nula de independencia y se concluye
que existe una relación significativa entre las variables.

La prueba de independencia tiene aplicaciones en diversos campos, como la


sociología, la medicina, la economía y la biología, entre otros. Por ejemplo, en
estudios de mercado, se puede emplear para determinar si la preferencia por un
producto está relacionada con la edad o el género de los consumidores. En
investigación médica, podría utilizarse para analizar si el tipo de tratamiento está
asociado con la tasa de recuperación en diferentes grupos de pacientes.

Página 21 de 44
4.1.3 PRUEBA DE BONDAD DEL AJUSTE

Las pruebas de bondad de ajuste se utilizan para comprobar si sus resultados


realmente le dan lo que está buscando. Estas pruebas le indican qué tan cerca se
ajustan sus datos a su hipótesis. Por ejemplo, supongamos que ha recopilado
datos para un gráfico de control que muestra qué tan cerca sus productos
fabricados cumplen con la especificación de ancho. Bueno, su prueba de bondad
de ajuste le dice si sus datos se ajustan o no a la distribución esperada. Los
buenos resultados significan que sus productos están saliendo de la manera que
desea que salgan con el ancho correcto.

Con las pruebas de bondad de ajuste, verá dos términos en uso: la hipótesis nula
y la hipótesis alternativa. Piense en la hipótesis nula como sus resultados
esperados y la hipótesis alternativa como sus resultados no deseados.

La prueba de bondad de ajuste se aplica en diseños de investigación en los que


se estudia un único grupo. La prueba compara la distribución de frecuencias
observada (Fo) de una variable usualmente cualitativa, pro

que también puede ser cuantitativa, con la distribución de frecuencias de la misma


variable medida en un grupo de referencia.

El procedimiento de la prueba implica el cálculo de una distribución esperada (Fe)


en el grupo estudiado, usando como punto de partida a la distribución de la
variable en el grupo de referencia.

El propósito de la prueba es averiguar si existen diferencias estadísticamente


significativas entre la distribución observada (Fo) y la distribución esperada (Fe).

En la prueba de bondad se planean las siguientes hipótesis estadísticas:

Hipótesis estadística nula: Ho: Fo=Fe Hipótesis estadística alterna: Ha: Fo≠Fe

El procedimiento e la prueba incluyen el cálculo de la medida de resumen llamada


Chi cuadrada. El rechazo del Ho ocurre cuando el valor calculado con los datos
resulta mayor que el valor crítico de dicha medida contenido en una tabla llamada
Valores Críticos de Chi cuadrada.

En el caso que el valor de Chi cuadrada sea igual o menos al de Chi cuadrada
crítica se dice que no se rechaza Ho y, por tanto, se concluye que la Fo es
semejante a la Fe. En otras palabras, se dice que ambas distribuciones se ajustan
bien: de ahí el nombre de prueba: Bondad de ajuste.

Página 22 de 44
4.1.4 TABLAS DE CONTIGENCIA

Una tabla de contingencia es una herramienta utilizada en la rama de la


estadística, la cual consiste en crear al menos dos filas y dos columnas para
representar datos categóricos en términos de conteos de frecuencia.

Esta herramienta, que también se conoce como tabla cruzada o como tabla de
dos vías, tiene el objetivo de representar en un resumen, la relación entre
diferentes variables categóricas.

La tabla de contingencia es una de las herramientas analíticas más útiles y un


pilar de la industria de la investigación de mercados.

Objetivos de una tabla de contingencia

La tabla permite medir la interacción entre dos variables para conocer una serie
de información “oculta” de gran utilidad para comprender con mayor claridad los
resultados de una investigación.

La tabla sólo mostrará los encuestados que respondieron ambas preguntas, lo


que significa que las frecuencias mostradas pueden diferir de una tabla de
frecuencias estándar.

El informe que ofrece también mostrará las Estadísticas Chi-cuadrado de


Pearson, el cual representa el grado de correlación entre las variables que usan
el chi- cuadrado, el valor p y el grado de libertad.

Los objetivos de la tabla de contingencia son los siguientes:

• Ordenar la información recolectada para un estudio cuando los datos se


encuentran divididos de forma bidimensional, esto significa a que se relaciona con
dos factores cualitativos.

• El otro objetivo de la tabla de contingencia es analizar si hay una relación


entre las variables cualitativas, ya sean dependientes o independientes.

Ventajas de realizar una tabla de contingencia

Entre los principales beneficios de realizar una tabla de contingencia se


encuentran los siguientes:

1. Facilita la lectura de los datos recolectados, ya que permite agruparlos


cuando aún se encuentran sin procesar, lo que disminuye el margen de error al
realizar un informe de investigación.

Página 23 de 44
2. Gracias a la tabla de contingencia es posible realizar gráficas que permitan
visualizar la información fácilmente para su comprensión.

3. A diferencia de otros métodos estadísticos de análisis de datos, la tabla de


contingencia permite ahorrar tiempo durante la correlación de variables.

4. Las tablas ofrecen resultados claros y precisos que permiten tomar mejores
decisiones y crear estrategias basadas en datos.

Cuando usar una tabla de contingencia

La tabla de contingencia generalmente se realiza en datos categóricos, es decir


que se pueden dividir en grupos mutuamente excluyentes.Un ejemplo de datos
categóricos es la región de ventas de un producto. Típicamente, la región se
puede dividir en categorías como área geográfica (norte, sur, noreste, oeste, etc.)
o estado.

Es importante recordar que los datos categóricos no pueden pertenecer a más de


una categoría.

Uno de los principales usos de una tabla de contingencia es analizar la relación


que existe entre los datos, las cuales no son fáciles de identificar.

¿para qué sirven?

En este último apartado veremos para qué sirven las tablas de contingencia, ya
que son realmente útiles en estadística y en probabilidad.

Principalmente, una tabla de contingencia sirve para poder analizar los datos de
una variable categórica. Resulta complicado hacer un estudio estadístico de este
tipos de variables, pero utilizando las tablas de contingencia se pueden ordenar
los datos de manera clara y, en consecuencia, es más fácil interpretarlos.

Como hemos visto en el ejemplo de arriba, resulta muy cómodo calcular


probabilidades a partir de una tabla de contingencia, simplemente se deben tener
los conceptos claros y sustituir los datos adecuados en la fórmula.

Además, las tablas de contingencia facilitan deducir las relaciones entre las
variables de una investigación con solo observarlas, ya que presentan los datos
de manera ordenada y limpia

Página 24 de 44
4.2 PRUEBAS NO PARAMETRICAS

Las pruebas no paramétricas, también conocidas como pruebas de distribución


libre, son las que se basan en determinadas hipótesis, pero lo datos observados
no tienen una organización normal. Generalmente, las pruebas no paramétricas
contienen resultados estadísticos que provienen de su ordenación, lo que las
vuelve más fáciles de comprender.

Las pruebas no paramétricas tienen algunas limitaciones, entre ellas se encuentra


que no son lo suficientemente fuertes cuando se cumple una hipótesis normal.

Esto puede provocar que no sea rechazada, aunque sea falsa. Otra de sus
limitaciones es que necesitan que la hipótesis se cambie cuando la prueba no
corresponde a la pregunta del procedimiento si la muestra no es proporcional.

Algunas de las características de las pruebas no paramétricas son:

• Es un método de medición difícil de aplicar.

• Es necesario realizar pruebas de hipótesis.

• Las hipótesis son estrictas.

• Las observaciones deben de ser independientes.

Los tipos de pruebas no paramétricas son:

• Prueba de signos de una muestra

• Prueba de los rangos con signo de Wilcoxon

• Prueba U de Mann-Whitney

• Prueba de Kruskal-Wallis

• Prueba de la mediana de Mood

• Prueba de Friedman

Ventajas de las pruebas no paramétricas

Las ventajas de las pruebas no paramétricas son:

Página 25 de 44
• Pueden utilizarse en diferentes situaciones, ya que no deben de cumplir
con parámetros estrictos.

• Generalmente, sus métodos son más sencillos, lo que las hace más fácil
de entender.

• Se pueden aplicar en datos no numéricos.

• Facilita la obtención de información particular más importante y adecuada


para el proceso de investigación.

Las desventajas de las pruebas no paramétricas son:

• No son pruebas sistemáticas.

• La distribución varía, lo que complica seleccionar la elección correcta.

• Los formatos de aplicación son diferentes y provoca confusión.

• Es posible que se pierda información porque los datos recolectados se

convierten en información cualitativa.

• Es posible que se necesite tener fuentes y un respaldo con más peso.

Este tipo de estadísticas se pueden utilizar sin el tamaño de la muestra o la


estimación de cualquier parámetro relacionado del que no se tenga información.
Dado que las suposiciones son menores, pueden aplicarse de múltiples formas.

Pruebas estadísticas no paramétricas

Variables cuantitativas

Cuando la distribución de datos cuantitativos no sigue una distribución normal


también hay diferentes pruebas estadísticas con las que se comparan las
medianas. La prueba de Wilcoxon se utiliza para comparar un grupo antes y
después, es decir, muestras relacionadas. Para la comparación de grupos
independientes se debe emplear U de Mann-Withney.

En el caso de 3 o más grupos independientes se debe utilizar la prueba de


Kruskal-Wallis (la cual es equivalente a ANOVA de una vía). La prueba Friedman
es la que se recomienda cuando se comparan 3 o más muestras relacionadas
(equivalente a ANOVA de 2 vías).

Página 26 de 44
Variables cualitativas

Como se señala en el Cuadro 1 existen pruebas específicas para la comparación


de grupos cuando la escala de medición de las variables es cualitativa.
Retomando el mismo ejemplo, si tomamos solo a los pacientes que alcancen un
nivel sérico de IgG > 400 mg/dL, en 2 grupos independientes se puede comparar
el porcentaje de pacientes que alcanzan el nivel establecido de IgG utilizando la
prueba de chi cuadrada, pero si las muestras son relacionadas deberá emplearse
la prueba de McNemar. En caso de comparar 3 o más grupos independientes
también se utiliza chi-cuadrada; en caso de muestras relacionadas, Q de Cochran.

Un punto a destacar cuando se emplean las pruebas de comparación de


proporciones es que se deben cumplir ciertas condiciones: cuando el número de
datos sea menor a 30 se aplicará la corrección de Yates, mientras que la prueba
exacta de Fisher debe ser utilizada en lugar de χ2 cuando se comparan 2 grupos
independientes si en algunas de las casillas de la tabla de contingencia se
encuentra algún valor menor de 5.

Análisis de correlación

Cuando se desea establecer la relación de 2 variables cuantitativas continuas con


distribución normal (por ejemplo, dosis de inmunoglobulina administrada con el
nivel de IgG sérica) se utilizará el coeficiente de correlación de Pearson (r de
Pearson). Sin embargo, cuando alguna de las 2 variables por correlacionar no
siguen una distribución normal, la prueba que corresponde es el coeficiente de
correlación de Spearman (rho de Spearman). Esta última es la que se aplica si se
trata de analizar variables ordinales (ejemplo, el grado de desnutrición y su
correlación con el grado de anemia).

Otras pruebas estadísticas

Si bien existen otras pruebas estadísticas, en este artículo hemos descrito las más
utilizadas en los estudios de investigación médica publicados.8 Se recomienda la
lectura de otras fuentes si los lectores desean conocer la forma de analizar
estudios de causalidad para la identificación de factores de riesgo, con la
estimación del riesgo relativo (RR) o razón de momios (OR).9 O bien, utilizar
análisis multivariables como la regresión logística si en el protocolo de
investigación se incluyen variables de confusión.

Página 27 de 44
4.2.1 ESCALA DE MEDICION

Cuando llevamos a cabo un análisis de datos o estudio de investigación es de


suma importancia conocer las escalas de medición estadísticas existentes. Esta
herramienta nos permitirá procesar los datos que obtengamos de los elementos
investigados y transformarlos en información medible y concreta.

Debido a esto, en este artículo te explicaremos todo lo que tienes que saber para
aplicar los distintos tipos de escala en tu proyecto. Presta atención y toma nota.

¿Qué es una escala de medición?

En primera instancia, vamos a aclarar qué es una escala de medición. Su


definición consiste en un proceso de comparación cuantitativa entre dos o más
elementos. Por lo tanto, este instrumento combina símbolos y números para
identificar las veces que figura un determinado patrón en el conjunto de elementos
estudiados.

Al mismo tiempo, es importante advertir que un elemento puede ser objetivo


posible de ser medido. Generalmente, los datos de una escala de medición se
conforman por características o propiedades que se atraviesan a partir de la
medición de diferentes indicadores. Estos serán, a su vez, determinados por el
comportamiento del objeto de estudio.

Tipos de escalas de medición

Ahora que ya conoces algunas características principales de las escalas de


medición pasemos a desarrollar los distintos tipos existentes. Estos tipos pueden
variar en consonancia con las propiedades o características de los datos que se
comparan.

Por tal motivo, en estadística, podemos identificar cuatro escalas de medición:

Tipo de escala de medición ordinal

Por su parte, la escala ordinal, establece un ordenamiento de los elementos de


acuerdo a su jerarquía y/o calidad.

Por ejemplo, si intentamos medir la calidad del contenido de 10 diferentes revistas


científicas que debaten sobre un mismo tema, podríamos ordenarlas del 1 al 10,
siendo el 1 el libro con peor calidad y nula relevancia y el 10 el de excelente calidad
y relevancia.

Tipo de escala de medición nominal

Página 28 de 44
A continuación, y continuando con los diferentes tipos de escalas de medición
estadística, nos encontramos con la escala nominal. Este tipo no tiene relación
alguna con la escala ordinal. Por el contrario, se enfoca en clasificar los elementos
observados.

Si retomamos al ejemplo de escala de medición anterior, la escala nominal podría


definir el género de la mayoría de las personas que votaron en cuanto a la
relevancia y la calidad de una revista científica u otra. A este respecto, si el sondeo
recopila un número de 100 personas, la escala nominal definirá cuántos fueron
mujeres y cuántos hombres.

Entonces, la función principal de este tipo de escala es identificar y cotejar las


características nominales, también llamadas etiquetas, de un resultado concreto.
Tipo de escala de medición de intervalo

Este tipo de escala comparte similitudes con la escala ordinal, sobre todo en el
orden de jerarquía de los datos. A este respecto, le suma la división entre las
variables de acuerdo a su sentido.

Un ejemplo de esta escala de medición pueden ser las encuestas que las
empresas realizan para medir la satisfacción de sus clientes. Básicamente
consiste en una pregunta relacionada a la satisfacción con una escala del 1 al 10.
Por lo tanto, la escala de intervalo se elabora de acuerdo a los datos obtenidos de
la encuesta. Estos datos, se agrupan de la siguiente manera:

• Del 1 al 4 = clientes poco satisfechos.

• 5 a 8 = clientes moderadamente satisfechos.

• 9 a10 = clientes satisfechos que seguramente recomendarán los servicios


o productos de la empresa.

Como queda advertido en el ejemplo de escala de medición, esta plantea,


justamente, los intervalos presentes entre una categoría y otra de la medición.
Tipo de escala de medición de razón

Por último, tenemos el tipo de escala de medición de razón. A partir de esta,


podremos cuantificar la razón de un determinado fenómeno o acontecimiento.

Página 29 de 44
4.2.2 MÉTODOS ESTADÍSTICOS CONTRA NO PARAMÉTRICOS

Una prueba no paramétrica es una prueba de hipótesis que no requiere que la


distribución de la población sea caracterizada por ciertos parámetros. Por ejemplo,
muchas pruebas de hipótesis parten del supuesto de que la población sigue una
distribución normal con los parámetros μ y σ. Las pruebas no paramétricas no
parten de este supuesto, de modo que son útiles cuando los datos son
considerablemente no normales y resistentes a transformaciones.

En la estadística paramétrica, se presupone que las muestras provienen de


distribuciones totalmente especificadas caracterizadas por uno o más parámetros
desconocidos sobre los cuales se desea hacer inferencias. En un método no
paramétrico, se presupone que la distribución de la que proviene la muestra no
está especificada y, con frecuencia, se desea hacer inferencias sobre el centro de
la distribución. Por ejemplo, muchas pruebas de la estadística paramétrica, como
la prueba t de 1 muestra, se realizan bajo el supuesto de que los datos provienen
de una población normal con una media desconocida. En un estudio no
paramétrico, se elimina el supuesto de normalidad.

Los métodos no paramétricos son útiles cuando no se cumple el supuesto de


normalidad y el tamaño de la muestra es pequeño. Sin embargo, las pruebas no
paramétricas no están completamente libres de supuestos acerca de los datos.
Por ejemplo, es fundamental presuponer que las observaciones de las muestras
son independientes y provienen de la misma distribución. Además, en los diseños
de dos muestras, se requiere el supuesto de igualdad de forma y dispersión.

Por ejemplo, los datos sobre salarios son fuertemente asimétricos hacia la
derecha, porque muchas personas devengan salarios modestos y pocas personas
ganan salarios más altos. Usted puede utilizar pruebas no paramétricas con estos
datos para responder a preguntas como las siguientes:

• ¿Es la mediana de los salarios de su empresa igual a cierto valor? Utilice


la prueba de signos de 1 muestra.
• ¿Es la mediana de los salarios de una sucursal urbana de un banco mayor
que la mediana de los salarios de una sucursal rural del banco? Utilice la
prueba de Mann-Whitney o la prueba de Kruskal-Wallis.

Página 30 de 44
• ¿Son diferentes las medianas de los salarios en las sucursales rurales,
urbanas y suburbanas de un banco? Utilice la prueba de la mediana de
Mood.
• ¿Cómo incide el nivel de educación en los salarios de las sucursales rural
y urbana? Utilice la prueba de Friedman.

Limitaciones de las pruebas no paramétricas


Las pruebas no paramétricas tienen las siguientes limitaciones:

• Las pruebas no paramétricas por lo general son menos potentes que la


prueba paramétrica correspondiente cuando se cumple el supuesto de
normalidad. Por lo tanto, es menos probable que usted rechace la hipótesis
nula cuando sea falsa si los datos provienen de la distribución normal.
• Las pruebas no paramétricas suelen requerir que se modifiquen las
hipótesis. Por ejemplo, la mayoría de las pruebas no paramétricas acerca
del centro de la población son pruebas sobre la mediana y no sobre la
media. La prueba no responde a la misma pregunta que el procedimiento
paramétrico correspondiente si la población no es simétrica.

Pruebas paramétricas alternativas


Cuando tenga la posibilidad de escoger entre un procedimiento paramétrico y uno
no paramétrico, y esté reltivamente seguro de que se cumplen los supuestos del
procedimiento paramétrico, entonces utilice el procedimiento paramétrico.
También podría utilizar el procedimiento paramétrico cuando la población no esté
distribuida normalmente si el tamaño de la muestra es lo suficientemente grande.

La siguiente es una lista de las pruebas no paramétricas y sus alternativas


paramétricas.
Prueba no paramétrica Prueba paramétrica alternativa

Prueba de signos de 1 muestra Prueba Z de 1 muestra, prueba t de 1 muestra

Prueba de Wilcoxon de 1 muestra Prueba Z de 1 muestra, prueba t de 1 muestra

Prueba de Mann-Whitney Prueba t de 2 muestras

Página 31 de 44
Prueba no paramétrica Prueba paramétrica alternativa

Prueba de Kruskal-Wallis ANOVA de un solo factor

Prueba de la mediana de Mood ANOVA de un solo factor

Prueba de Friedman ANOVA de dos factores

los métodos estadísticos no paramétricos no requieren suposiciones sobre la


distribución de los datos. Estos métodos se centran en pruebas y estimaciones
que no dependen de parámetros poblacionales específicos, lo que los hace más
flexibles y robustos ante la falta de información sobre la distribución subyacente
de los datos.

Los métodos no paramétricos incluyen pruebas como la de Wilcoxon, Mann-


Whitney, Kruskal-Wallis, pruebas de rangos con signo de Wilcoxon, entre otras.
Estas pruebas son útiles cuando los datos no siguen una distribución conocida o
cuando la muestra es pequeña y las suposiciones de normalidad no pueden
validarse.

Los métodos paramétricos a menudo tienen mayor poder estadístico cuando se


cumplen sus suposiciones, pero los métodos no paramétricos son más robustos
y aplicables en una variedad de situaciones, incluso cuando las suposiciones de
normalidad no se cumplen o la muestra es pequeña.

En resumen, la diferencia fundamental entre métodos estadísticos paramétricos y


no paramétricos radica en las suposiciones sobre la distribución de los datos. Los
métodos paramétricos son más potentes cuando se cumplen las suposiciones,
mientras que los métodos no paramétricos son más versátiles y aplicables en una
gama más amplia de situaciones donde las suposiciones paramétricas no pueden
sostenerse. La elección entre uno u otro depende de la naturaleza de los datos y
la validez de las suposiciones subyacentes.

Página 32 de 44
4.2.3 PRUEBA DE KOLMOGOROV – SMIRNOV

En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S) es


una prueba no paramétrica que determina la bondad de ajuste de
dos distribuciones de probabilidad entre sí.
En el caso de que queramos verificar la normalidad de una distribución, la prueba
de Lilliefors conlleva algunas mejoras con respecto a la de Kolmogórov-Smirnov;
y, en general, el test de Shapiro–Wilk o la prueba de Anderson-Darling son
alternativas más potentes.
Conviene tener en cuenta que la prueba Kolmogórov-Smirnov es más sensible a
los valores cercanos a la mediana que a los extremos de la distribución. La prueba
de Anderson-Darling proporciona igual sensibilidad con valores extremos.
Su nombre proviene de los matemáticos rusos Andrey Kolmogorov y Nikolai
Smirnov.

Página 33 de 44
4.2.4 PRUEBA DE ANDERSON – DARLING

El estadístico Anderson-Darling mide qué tan bien siguen los datos una
distribución específica. Para un conjunto de datos y distribución en particular,
mientras mejor se ajuste la distribución a los datos, menor será este estadístico.
Por ejemplo, usted puede utlizar el estadístico de Anderson-Darling para
determinar si los datos cumplen el supuesto de normalidad para una prueba t.

Las hipótesis para la prueba de Anderson-Darling son:

• H0: Los datos siguen una distribución especificada


• H1: Los datos no siguen una distribución especificada
Utilice el valor p correspondiente (si está disponible) para probar si los datos
provienen de la distribución elegida. Si el valor p es menor que un nivel de
significancia elegido (por lo general 0.05 o 0.10), entonces rechace la hipótesis
nula de que los datos provienen de esa distribución. Minitab no siempre muestra
un valor p para la prueba de Anderson-Darling, porque este no existe
matemáticamente para ciertos casos.

También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste


de varias distribuciones con el fin de determinar cuál es la mejor. Sin embargo,
para concluir que una distribución es la mejor, el estadístico de Anderson-Darling
debe ser sustancialmente menor que los demás. Cuando los estadísticos están
cercanos entre sí, se deben usar criterios adicionales, como las gráficas de
probabilidad, para elegir entre ellos.

Distribución Anderson-Darling Valor p

Exponencial 9,599 p < 0.003

Normal 0,641 p < 0.089

Página 34 de 44
Distribución Anderson-Darling Valor p

Weibull de 3 parámetros 0,376 p < 0.432

Exponencial Normal Weibull de 3 parámetros


Ejemplo de comparación de distribuciones
Estas gráficas de probabilidad son para los mismos datos. Tanto la distribución
normal como la distribución de Weibull de 3 parámetros ofrecen un ajuste
adecuado a los datos.
Minitab calcula el estadístico de Anderson-Darling usando la distancia al cuadrado
ponderada entre la línea ajustada de la gráfica de probabilidad (con base en la
distribución elegida y usando el método de estimación de máxima verosimilitud o
las estimaciones de mínimos cuadrados) y la función de paso no paramétrica. El
cálculo tiene mayor ponderación en las colas de la distribución.

El estadístico de bondad de ajuste de Anderson-Darling -AD- mide el área entre


la línea ajustada -basada en la distribución normal- y la función de distribución
empírica -que se basa en los puntos de los datos-. El estadístico de Anderson-
Darling es una distancia elevada al cuadrado que tiene mayor ponderación en las
colas de la distribución (Jensen & Alexander, 2016).

Según Guisande & Barreiro (2006), el estadístico Anderson Darling puede ser
utilizado para comprobar si los datos satisfacen el supuesto de normalidad para
una prueba t. También se lo puede definir como aquel estadístico no paramétrico
que es utilizado para probar si un conjunto de datos muéstrales provienen de una
población con una distribución de probabilidad continua específica, por lo general,
de una distribución normal. Esta prueba se basa en la comparación de la función
de la distribución acumulada empírica de los resultados de la muestra con la
distribución esperada si los datos fueran normales. Al momento de obtener los
resultados, si la diferencia observada es suficientemente grande, la hipótesis nula
de normalidad de la población es rechazada.

Página 35 de 44
El estadístico A2 mide el área entre la línea ajustada basada en la distribución
elegida y la función de paso no paramétrica, basado en los puntos de la gráfica.
El estadístico es una distancia elevada al cuadrado que tiene mayor ponderación
en las colas de la distribución, por lo tanto, un valor pequeño de Anderson-Darling
indica que la distribución se ajusta mejor a los datos (Minitab, 2020). El estadístico
de Anderson-Darling -A2- está dado por la ecuación 1.

(1)

Donde:

N: número de casos.

S: desviación estándar.

Expresado también según la ecuación 2, así:

(2)

Donde:

n es el número de datos.

observaciones ordenadas.

F(Yi) es la función de la distribución empírica.

Y también se puede expresar tal como se muestra en la ecuación 3, así:

(3)

La prueba de Anderson-Darling se realiza en dos pasos: primero, se crean dos


distribuciones acumulativas, la primera es una distribución acumulativa de los
datos crudos y la segunda, es una distribución acumulativa normal y, segundo, se
comparan las dos distribuciones acumulativas para determinar la mayor diferencia
numérica absoluta entre ambas. De tal manera que, si la diferencia es amplia, se

Página 36 de 44
rechaza la hipótesis nula, esto es, que los datos siguen una distribución normal
(Flores-Tapia & Flores-Cevallos, 2018).

El estadístico Anderson-Darling mide qué tan bien siguen los datos una
distribución específica, siendo que, para un conjunto de datos y distribución en
particular, mientras mejor se ajuste la distribución a los datos, menor será este
estadístico. También puede utilizar el estadístico de Anderson-Darling para
comparar el ajuste de varias distribuciones con el fin de determinar cuál es la
mejor. Sin embargo, para concluir que una distribución es la mejor, el estadístico
de Anderson-Darling debe ser sustancialmente menor que los demás. Cuando los
estadísticos están cercanos entre sí, se deben usar criterios adicionales, como las
gráficas de probabilidad, para elegir entre ellos.

La Prueba de Anderson-Darling es una prueba estadística utilizada para


determinar si un conjunto de datos se ajusta a una distribución de probabilidad
específica, como la distribución normal, exponencial, gamma, entre otras. Esta
prueba es una de las pruebas de bondad de ajuste más utilizadas y se destaca
por su sensibilidad para detectar desviaciones en la cola de la distribución, es
decir, áreas de la distribución donde los valores son más extremos.

El procedimiento de la prueba de Anderson-Darling implica calcular un estadístico


de prueba basado en las diferencias entre las distribuciones acumulativas
empíricas y teóricas. Cuanto mayor sea el valor del estadístico de Anderson-
Darling, mayor será la discrepancia entre los datos observados y la distribución
teórica asumida.

La hipótesis nula de la prueba de Anderson-Darling establece que los datos


provienen de una distribución específica. Si el valor calculado del estadístico de
prueba es menor que el valor crítico correspondiente para un nivel de significancia
determinado, se acepta la hipótesis nula, concluyendo que no hay evidencia
suficiente para rechazar la suposición de que los datos siguen la distribución
teórica propuesta. Por el contrario, si el valor calculado es mayor que el valor
crítico, se rechaza la hipótesis nula, indicando que existen diferencias
significativas entre los datos observados y la distribución teórica asumida.

La prueba de Anderson-Darling se utiliza en una variedad de campos, incluyendo


finanzas, ciencias naturales, ingeniería, entre otros, donde la evaluación de la
bondad de ajuste de un modelo a los datos es crucial para la toma de decisiones
o inferencias.

Página 37 de 44
4.2.5 PRUEBA DE RYAN – JOINER

El estadístico de Ryan-Joiner mide qué tan bien se ajustan los datos a una
distribución normal, calculando la correlación entre los datos y las puntuaciones
normales de los datos. Según Hanke & Wichern (2014) la prueba de Ryan Joiner
proporciona un coeficiente que indica exactamente la correlación entre los datos
y las puntuaciones normales de los datos. Una vez que el coeficiente de
correlación se acerca a 1, los datos se encuentran dentro de la gráfica de
probabilidad normal; caso contrario, esto es, cuando el valor critico adecuado es
menor, se rechaza la hipótesis nula de normalidad. Cabe recalcar que para
rechazar la hipótesis nula de normalidad se calcula, primero, la medida de la
correlación entre los residuos y sus respectivas puntuaciones normales y, luego,
se utiliza dicha correlación como estadística de prueba. La prueba de Ryan-Joiner
-similar a la prueba de Shapiro-Wilk- se basa en la regresión y correlación. Esta
prueba resulta mucha más adecuada para muestras superiores a 30
observaciones. El coeficiente de correlación se calcula de acuerdo con
la ecuación 4.

(4)

Donde:

observaciones ordenadas

puntuaciones normales de los datos ordenados

varianza de la muestra

Para definir la regla de rechazo de esta prueba es necesario, también obtener


el estadístico ajustado para luego compararlo con los valores críticos con la tabla
Anderson-Darling. Por otra parte, cabe destacar que la prueba de Ryan-Joiner es
una modificación de la prueba de Kolmogórov-Smirnov, otorgándose mayor
relevancia a las colas de la distribución que en la prueba de Kolmogórov-Smirnov
(Levin et al., 2014; Minitab, 2020).

Página 38 de 44
4.2.6 PRUEBA DE SHAPPIRO - WILK

Según Novales (2010), este test se emplea para contrastar normalidad cuando
el tamaño de la muestra es menor a 50 observaciones y en muestras grandes es
equivalente al test de Kolmogórov-Smirnov. El método consiste en comenzar
ordenando la muestra de menor a mayor valor, obteniendo el nuevo vector
muestral. Cuando la muestra es como máximo de tamaño 50, se puede contrastar
la normalidad con la prueba de Shapiro-Wilk, procediéndose a calcular la media y
la varianza muestral. Se rechaza la hipótesis nula de normalidad si el estadístico
Shapiro-Wilk -W- es menor que el valor crítico proporcionado por la tabla
elaborada por los autores para el tamaño de la muestra y el nivel de significancia
dado.

Shapiro-Wilk, como prueba de normalidad, fue introducido considerando que el


gráfico de probabilidad normal que examina el ajuste de un conjunto de datos de
muestra para la distribución normal es semejante a la de regresión lineal - la línea
diagonal del gráfico es la recta de ajuste perfecto-, con la diferencia de que esta
línea es similar a los residuos de la regresión. Mediante el análisis de la magnitud
de esta variación -análisis de varianza-, la calidad del ajuste puede ser examinado.
La prueba puede aplicarse a muestras grandes, como fue sugerido por Royston,
que también produjo algoritmos para implementar su extensión y que se
implementa en algunos softwares especializados estadísticos (Carmona &
Carrión, 2015). El estadístico de prueba se muestra en la ecuación 5.

(5)

Donde Yi son los datos de la muestra, ordenados por tamaño -ordenado-. Ahora
bien, si los datos de la muestra son en realidad una muestra aleatoria de una
distribución normal con media desconocida μ y varianza σ2, entonces se debe
facilitar la representación de los datos mediante la ecuación lineal simple 6, así:

(6)

Donde la es un conjunto ordenado de azar N (0,1) variables. El ajuste de


mínimos cuadrados de los pares (x, y) proporciona los medios para determinar el
desconocido coeficientes . El vector de estos coeficientes se obtiene de la
expresión matriz expresada en la ecuación 7.

Página 39 de 44
(7)

Donde V es la matriz de varianza-covarianza de los elementos del vector x, y el


vector m es el valor esperado de los elementos de x, es decir, los valores medios
de las estadísticas de orden para la distribución normal. El estadístico W es
invariante escala y el origen y tiene un valor máximo de 1 y un mínimo de /n-1.
Por lo tanto, el valor mínimo es aproximadamente el cuadrado del menor
coeficiente para n> 10. Así también, la distribución de W para generar n no es
conocido y debe ser obtenido por simulación y/o tabulación de los resultados o
utilizando la aproximación -como es el caso con el enfoque de Royston-. De tal
manera que el estadístico W es más bien como un coeficiente de correlación al
cuadrado -o coeficiente de determinación- y, en tal sentido, un valor alto indica
una mayor correspondencia a la normal. No obstante, este resultado no es
concluyente, por cuanto los valores altos a menudo se encuentran con muestras
pequeñas de datos que no son normales, siendo particularmente sensible a la
distribución de asimetría y con cola larga (Allaire et al., 2019).

Página 40 de 44
CONCLUSIÓN

Los resultados obtenidos en esta investigación indican que la validez de las


pruebas de bondad de ajuste e independencia chi-cuadrado de Pearson se ve
afectada por la violación de los supuestos de independencia e igual distribución
de las observaciones que ocurre en el muestreo con parcelas de tamaño variable.

Las pruebas de bondad de ajuste chi-cuadrado de Pearson, chi-cuadrado de


Pearson ponderada por las probabilidades de inclusión, Wald y la de Rao-Scott
con corrección de primer orden presentan valores inaceptables para el error tipo
I, razón por la cual no se recomienda su uso bajo un muestreo con parcelas de
tamaño variable.

En todas las simulaciones realizadas la prueba de bondad de ajuste de Rao-Scott


con corrección de segundo orden es la que muestra el mejor desempeño, sin
embargo, en algunas situaciones el error tipo I alcanza valores cercanos a 0,12,
lo cual no es satisfactorio. Se cree conveniente investigar acerca de otras pruebas
que consideren el diseño muestral, para determinar si alguna puede disminuir el
error tipo I registrado por la prueba de Rao-Scott con corrección de segundo
orden.

La magnitud de la distorsión del error tipo I es mayor en las pruebas de bondad


de ajuste que en las pruebas de independencia, lo que indica que estas últimas
son menos sensibles a la violación de los supuestos.

En lo que respecta a las pruebas de independencia, no se justifica utilizar la


prueba de Pearson ponderada por las probabilidades de inclusión y la de Rao-
Scott con corrección de primer orden, ya que presentan valores del error tipo I
similares a los obtenidos en la prueba de independencia chi-cuadrado de Pearson.
Por lo tanto, no tiene sentido hacer las correcciones pertinentes, si con ello no
disminuye el error tipo I.

En cuanto a la prueba de independencia de Wald, ésta presenta el inconveniente


de que su error tipo I tiende a aumentar cuando se incrementa el número de celdas
de la tabla de contingencia, hecho que indica que esta prueba no es confiable.

La prueba de independencia de Rao-Scott con corrección de segundo orden


presenta los valores más bajos del error tipo I, estando muy cerca del valor
nominal establecido ( =0,05). Es por ello que se recomienda el uso de esta
prueba, en situaciones similares a las simuladas en este trabajo.

Página 41 de 44
GLOSARIO

Bondad de ajuste: Se refiere a un concepto estadístico que evalúa qué tan bien
un modelo o una distribución teórica se ajusta a un conjunto de datos
observados. En resumen, se trata de medir la discrepancia entre los datos reales
y los valores predichos por un modelo o una hipótesis.

Paramétricas: Se refiere a aquellas técnicas, métodos o distribuciones en


estadística que asumen una forma específica o un conjunto de parámetros fijos
para describir los datos. Los modelos paramétricos tienen parámetros
predefinidos que se ajustan a los datos.

Prueba: En el contexto estadístico, una prueba se refiere a un procedimiento


formal o técnica utilizada para evaluar una hipótesis sobre los datos. Las
pruebas estadísticas pueden ser usadas para determinar si hay diferencias
significativas entre grupos, verificar la validez de una afirmación o comprobar la
asociación entre variables, entre otros propósitos.

Escala: En estadística y medición, se refiere a la graduación o rango de valores


que se utilizan para medir o describir un fenómeno específico. Puede ser una
escala numérica, ordinal, nominal, etc., dependiendo de la naturaleza de la
medición y los atributos de los datos.

Medición: Proceso de asignar números o valores a las propiedades de un objeto


o fenómeno con el fin de cuantificarlas. La medición es fundamental en la
recopilación de datos y puede realizarse utilizando diferentes escalas y métodos,
dependiendo del tipo de información que se esté evaluando.

Correlación: Es una medida estadística que describe la relación entre dos


variables y cómo varían juntas. Indica la fuerza y la dirección de la asociación
entre dos conjuntos de datos. Una correlación positiva significa que las variables
tienden a aumentar o disminuir juntas, mientras que una correlación negativa
indica que una variable tiende a aumentar cuando la otra disminuye.
Cualitativas: Son características o variables que se describen o clasifican en
categorías o cualidades discretas y no numéricas. Ejemplos comunes incluyen el
color, la forma, la preferencia, el tipo de material, etc.
Página 42 de 44
Cuantitativas: Se refiere a variables que se expresan o miden en términos de
cantidad o magnitud numérica. Estos datos se pueden medir y ordenar
matemáticamente. Ejemplos incluyen la edad, el peso, la altura, el ingreso, etc.

Tabla de contingencia: Una tabla que muestra la distribución conjunta de dos o


más variables categóricas. Es útil para examinar la relación entre estas variables
al presentar la frecuencia con la que ocurren diversas combinaciones de
categorías.

Valores críticos: Son valores específicos utilizados en pruebas estadísticas para


tomar decisiones sobre la aceptación o rechazo de una hipótesis. Estos valores
están relacionados con ciertos niveles de significancia y límites establecidos
para evaluar la validez de una prueba estadística.

Clases: En el contexto estadístico, se refiere a las categorías o grupos en los


que se clasifican los datos. Por ejemplo, al crear un histograma, las clases son
los intervalos utilizados para agrupar los datos y construir las barras del gráfico.

Página 43 de 44
REFERENCIAS

http://portal.amelica.org/ameli/jatsRepo/341/3412237018/html/index.html

1. Rendón-Macías ME, Villasís-Keever MÁ, Miranda-Novales MG. Estadística


descriptiva. Rev Alerg Mex. 2016;63(4):397-407. Disponible
en: http://revistaalergia.mx/ojs/index.php/ram/article/view/230 [ Links ]

2. Villasís-Keever MA, Miranda-Novales MG. El protocolo de investigación II: los


diseños de estudio para investigación clínica. Rev Alerg Mex. 2016;63(1):80-90.
Disponible en: http://revistaalergia.mx/ojs/index.php/ram/article/view/163 [ Links ]

3. Villasís-Keever MA, Miranda-Novales MG. El protocolo de investigación IV: las


variables de estudio. Rev Alerg Mex. 2016;63(3):303-310. Disponible
en: http://revistaalergia.mx/ojs/index.php/ram/article/view/199 [ Links ]

4. Gómez-Gómez N, Danglot-Banck C, Vega-Franco L. Cómo seleccionar una


prueba estadística (primera de dos partes). Rev Mex Pediatr. 2013;80(1):30-34.
Disponible en: http://www.medigraphic.com/pdfs/pediat/sp-
2013/sp131g.pdf [ Links ]

5. Gómez-Gómez N, Danglot-Banck C, Vega-Franco L. Cómo seleccionar una


prueba estádistica (segunda parte). Rev Mex Pediatr 2013;80(2):81-85.
Disponible en: http://www.medigraphic.com/pdfs/pediat/sp-
2013/sp132g.pdf [ Links ]

6. Shankar S, Singh R. Demystifying statistics: How to choose a statistical test?


Indian J Rheumatol. 2014;9(2):77-81.
DOI: https://doi.org/10.1016/j.injr.2014.04.002 [ Links ]

7. Talavera JO, Rivas-Ruiz R. Investigación clínica IV. Pertinencia de la prueba


estadística. Rev Med Inst Mex Seguro Soc. 2011;49(4):401-405. Disponible
en: http://www.redalyc.org/articulo.oa?id=457745503010 [ Links ]

Sato Y, Gosho M, Nagashima K, Takahashi S, Ware JH, Laird NM. Statistical


methods in the journal - An update. N Engl J Med. 2017;376(11):1086-1087.
[ Links ]

9. Fajardo-Gutiérrez A. Medición en epidemiología: prevalencia, incidencia,


riesgo, medidas de impacto. Rev Alerg Mex. 2017;64(1):109-120. Disponible
en: http://revistaalergia.mx/ojs/index.php/ram/article/view/252 [ Links ]

10. Berea-Baltierra R, Rivas-Ruiz R, Pérez-Rodríguez M, Palacios-Cruz L,


Moreno J, Talavera JO. Investigación clínica XX. Del juicio clínico a la regresión
logística múltiple. Rev Med Inst Mex Seguro Soc. 2014;52:192-197.
Página 44 de 44

También podría gustarte