0% encontró este documento útil (0 votos)
65 vistas15 páginas

Pruebas Chi-Cuadrado y Anderson-Darling

Este documento presenta información sobre diferentes pruebas estadísticas para determinar si los datos de una muestra provienen de una distribución normal o no, incluyendo la prueba Chi-cuadrada y la prueba Anderson-Darling. También incluye ejemplos para ilustrar cómo aplicar estas pruebas.

Cargado por

Alicia García
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
65 vistas15 páginas

Pruebas Chi-Cuadrado y Anderson-Darling

Este documento presenta información sobre diferentes pruebas estadísticas para determinar si los datos de una muestra provienen de una distribución normal o no, incluyendo la prueba Chi-cuadrada y la prueba Anderson-Darling. También incluye ejemplos para ilustrar cómo aplicar estas pruebas.

Cargado por

Alicia García
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

INSTITUTO TECNOLÓGICO SUPERIOR DE GUASAVE

CARRERA: INGENIERÍA INDUSTRIAL

MATERIA: SIMULACIÓN

TRABAJO: Investigacion Unidad 4

DOCENTE: BRENDA GUADALUPE DELGADO JÍMENEZ

ALUMNA: GARCÍA LÓPEZ ALICIA ISABEL

MATRÍCULA: 2025010127

GRUPO: 601

Guasave, Sinaloa
INTRODUCCIÓN

La simulación es mucho más que la construcción del modelo y su ejecución.

Como cualquier proyecto, requiere de planeamiento, coordinación y un

entendimiento de los requerimientos de cada una de las tareas involucradas. El

modelado de sistemas requiere de capacidades o habilidades analítica,

estadística, organizacional y de ingeniería. El modelador debe ser capaz de

entender el sistema que está siendo investigado y debe ordenar relaciones

complejas causa-efecto. Estas condiciones proporcionan una guía sobre cómo

debe llevarse a cabo la simulación para obtener estimadores con propiedades

deseables.

Ahora bien, muchos procedimientos estadísticos dependen de la normalidad de

la población, de modo que recurrir a una prueba de normalidad para

determinar si se rechaza este supuesto constituye un paso importante en el

análisis. Entre las pruebas para determinar si los datos de su muestra provienen

de una población no normal, se destacan chi-cuadrad ,Anderson-Darling, entre

otras.
Prueba Chi-cuadrada

Se trata de una prueba de hipótesis a partir de datos, basada en el cálculo de

un valor llamado estadístico de prueba, al cual suele comparársele con un valor

conocido como valor crítico, mismo que se obtiene, generalmente, de tablas

estadísticas.

El procedimiento general de la prueba es:

1. Obtener al menos 30 datos de la variable aleatoria a analizar

2. Calcular la media y varianza de los datos.

3. Crear un histograma de m =√𝑛 intervalos, y obtener la frecuencia

observada en cada intervalo 𝑂𝑖

4. Establecer explícitam ente la hipótesis nula, mediante una distribución de

probabilidad que se ajuste a la forma del histograma.

5. Calcular la frecuencia esperada, E¡, a partir de la función de probabilidad

propuesta.

6. Calcular el estadístico de prueba.

7. Definir el nivel de significancia de la prueba, a, y determinar el valor

crítico de la prueba, 𝑋𝑎,𝑚−𝑘−1


2
(𝑘 es el núm ero de parám etros estim ados

en la distribución propuesta).

8. Comparar el estadístico de prueba con el valor crítico. Si el estadístico

de prueba es menor que el valor crítico no se puede rechazar la hipótesis

nula.
Tipos de pruebas de Chi-Cuadrado

Existen diferentes tipos de pruebas de Chi-Cuadrado: Prueba de bondad de

ajuste, prueba de independencia y prueba de homogeneidad. Ahora te

presentaremos en qué consiste cada uno:

Prueba de bondad de ajuste

La prueba de bondad de ajuste Chi-cuadrado se utiliza para comparar una

muestra recogida aleatoriamente que contiene una única variable categórica

con una población mayor.

Esta prueba se utiliza con mayor frecuencia para comparar una muestra

aleatoria con la población de la que se ha recogido potencialmente.

Prueba de independencia

La prueba de independencia de Chi-Cuadrado busca una asociación entre dos

variables categóricas dentro de la misma población.

A diferencia de la prueba de bondad de ajuste, la prueba de independencia no

compara una única variable observada con una población teórica, sino dos

variables dentro de un conjunto de muestras entre sí.

Prueba de homogeneidad de Chi-Cuadrado

La prueba de homogeneidad de Chi-Cuadrado se organiza y ejecuta

exactamente igual que la prueba de independencia.


La principal diferencia que hay que recordar entre ambas es que la prueba de

independencia busca una asociación entre dos variables categóricas dentro de

la misma población, mientras que la prueba de homogeneidad determina si la

distribución de una variable es la misma en cada una de varias

poblaciones (asignando así la propia población como segunda variable

categórica).

EJEMPLO:

Éstos son los datos del número de automóviles que entran a una gasolinera

cada hora:

Determinar la distribución de probabilidad con un nivel de significancia a de 5

%. El histograma (vea la figura 3.3) de los n = 50 datos, que considera m = 11

intervalos, la media muestral de 15.04 y la varianza muestral de 13.14, permite

establecer la siguiente hipótesis:


Comenzamos por calcular la probabilidad de cada intervalo a partir de la función

de probabilidad de Poisson:

Por ejemplo, para el intervalo 8-9

Enseguida calculamos la frecuencia esperada en cada intervalo, m ultiplicando

la probabilidad p(x) por el total de datos de la muestra:


Y luego estimamos el estadístico de prueba:

El valor del estadístico de prueba, 𝑋02 = 1.7848, comparado con el valor de tablas

crítico, 𝑋𝑂.𝑂5,11−0−1
2
= 18-307, indica que no podemos rechazar la hipótesis de que

la variable aleatoria se comporta de acuerdo con una distribución de Poisson,

con una media de 15 auto móviles/hora.


PRUEBA ANDERSON DARLING

El estadístico de bondad de ajuste de Anderson-Darling -AD- mide el área

entre la línea ajustada basada en la distribución normal y la función de

distribución empírica que se basa en los puntos de los datos-. El estadístico de

Anderson-Darling es una distancia elevada al cuadrado que tiene mayor

ponderación en las colas de la distribución (Jensen & Alexander, 2016).

Según Guisande & Barreiro (2006), el estadístico Anderson Darling puede ser

utilizado para comprobar si los datos satisfacen el supuesto de normalidad para

una prueba t. También se lo puede definir como aquel estadístico no

paramétrico que es utilizado para probar si un conjunto de datos muéstrales

provienen de una población con una distribución de probabilidad continua

específica, por lo general, de una distribución normal. Esta prueba se basa en la

comparación de la función de la distribución acumulada empírica de los

resultados de la muestra con la distribución esperada si los datos fueran

normales. Al momento de obtener los resultados, si la diferencia observada es

suficientemente grande, la hipótesis nula de normalidad de la población es

rechazada.

El procedimiento general de la prueba es:

1. Obtener n datos de la variable aleatoria a analizar.

2. Calcular la media y la varianza de los datos.

3. Organizar los datos en forma ascendente: 𝑦𝑖 𝑖 = 1,2, … . , 𝑛

4. Ordenar los datos en forma descendente. 𝑦𝑛+1−𝑖 𝑖 = 1,2, … . , 𝑛


5. Establecer de manera explícita la hipótesis nula, al proponer una distribución

de probabilidad.

6. Calcular la probabilidad esperada acumulada para cada número, 𝑦𝑖 𝑃𝐸𝐴(𝑌𝑖 ) , y

la probabilidad esperada acumulada para cada número 𝑦𝑛+1−𝑖 ,𝑃𝐸𝐴(𝑦𝑛+1−𝑖 ) ,a

partir de la función de probabilidad propuesta.

7. Calcular el estadístico de prueba.

𝑛
1
𝐴2𝑛 = −[𝑛 + ∑(2𝑖 − 1) [𝐼𝑛 𝑃𝐸𝐴(𝑦𝑖 ) + 𝐼𝑛(1 − 𝑃𝐸𝐴(𝑦𝑛+1−𝑖 )]]
𝑛
𝑖=1

8. Ajustar el estadístico de prueba de acuerdo con la distribución de

probabilidad propuesta.

9. Definir el nivel de significancia de la prueba a, y determinar su valor crítico,

+𝑎𝑎,𝑛 (vea la tabla 3.3).

10. Comparar el estadístico de prueba con el valor crítico. Si el estadístico de

prueba es menor que el valor crítico no se puede rechazar la hipótesis nula.


EJEMPLO:

Los siguientes son los datos de un estudio del tiempo de atención a los clientes

en una florería, medido en minutos/cliente:

Determinar la distribución de probabilidad con un nivel de significancia a de 5

por ciento. El histograma (vea la figura 3.5) de los n = 50 datos, que considera

m= 10 intervalos, la media muestral de 9.786 y la varianza muestral de 5.414,

permite establecer la siguiente hipótesis nula:

En la tabla 3.4 se muestran los resultados de los cálculos de cada uno de los

pasos del procedimiento siguiente:

- En la columna C1 se ordenaron los datos 𝑦𝑖 𝑖 = 1,2, … . ,30 en forma

ascendente.
- En la columna C2 se organizaron los datos 𝑦30+1−𝑖 𝑖 = 1,2, … . ,30 en forma

descendente.

- En la columna C3 se calcula la variable auxiliar 2i-1 𝑖 = 1,2, … ,30 del

estadístico de prueba.

- En las columnas C4 y C5 se calcula la probabilidad esperada acumulada para

cada número 𝑦𝑖 𝑃𝐸𝐴(𝑌𝑖 ) de la columna C1, y el complemento de la probabilidad

esperada acumulada para cada número 𝑦𝑛+1−𝑖 :1- 𝑃𝐸𝐴(𝑦𝑛+1−𝑖 ) de la columna C2

a partir de la función de probabilidad propuesta, que en este ejemplo es una

normal (𝜇 = 10, 𝜎 = 2.0).

Si se toma, por ejemplo, el renglón 𝑖= 7 con 𝑌7 = 7.8266 de la columna C1 y 𝑌24 =

10.0562 de la columna C2, y se estandarizan ambos valores.

se encuentra la probabilidad acumulada en la tabla normal estándar. De esta

forma tenemos una 𝑃𝐸𝐴7 = 0.1385 para z = -1 .0 8 6 7 y, para z = 0.0285 una

𝑃𝐸𝐴24 = 0.5112 y 1 - 𝑃𝐸𝐴24 = 0.4888. En las colum nas C6, C7 y C8 se desglosan

los cálculos del estadístico de prueba


Una vez calculado el estadístico de prueba, es necesario ajustarlo de acuerdo

con la tabla 3.3. En este caso, como tenemos n ≥ 5, no se requiere ajuste. Por

último, al comparar el estadístico de prueba 𝐴2𝑛 = 2.825724 con el valor crítico y

el nivel de significancia seleccionado, 𝑎0.05,30 = 2 2.492 (tabla 3.3 de valores

críticos de 𝛼), se rechaza la hipótesis 𝐻0 .

Replanteamiento de una nueva hipótesis:

En la tabla 3.5 se presenta el resumen de resultados de cada uno de los pasos

del procedimiento; la modificación se ve reflejada en los cálculos de las

probabilidades esperadas acumuladas. Por ejemplo, para el renglón i= 7

tenemos ahora:

Con estos valores se encuentra la probabilidad esperada acumulada en la tabla

normal estándar: a z = -0.8887 le corresponde 𝑃𝐸𝐴7 = 0.18707, y a z = 0.2261,

𝑃𝐸𝐴24 = 0.5894 y 1 - 𝑃𝐸𝐴24 = 0.4106. Al calcular de nuevo el estadístico de prueba

se obtiene:

Una vez calculado el estadístico de prueba, es necesario ajustarlo de acuerdo

con la tabla 3.3. En este caso, como tenemos n ≥ 5, no se requiere ajuste. Por
último, al comparar el estadístico de prueba 𝐴2𝑛 =1.3516 con el valor crítico y el

nivel de significancia seleccionado, 𝑎0.05,30 = 2.492 (tabla 3.3 de valores críticos

de 𝛼), vem os que no se puede rechazar la hipótesis 𝐻0 .


CONCLUSIÓN

En conclusión como primera parte la prueba de chi-cuadrada creada por Karl

Pearson, es una prueba recomendable para distribuciones discretas y continuas

cuando exista una gran cantidad de datos. La idea clave tras la prueba es

comparar los valores observados en los datos con los valores esperados que

tendríamos si la hipótesis nula es cierta.

Mientras que la prueba de Anderson -Darling es recomendable para

distribuciones con colas pronunciadas. Esta prueba es usada para probar si una

muestra viene de una distribución especifica .


Referencias Bibliográficas.

• Carmona, M., & Carrión, H. (2015). Potencia de la prueba estadística de

normalidad Jarque-Bera frente a las pruebas de Anderson-Darling,

Jarque-Bera robusta, Chi cuadrada, Chen-Shapiro y Shapiro-Wilk

[Universidad Autónoma del Estado de México].

https://core.ac.uk/download/pdf/159384191.pdf

• Simulación y análisis de sistemas con ProModel, 2da Edición

• Tapia, C. E. F. (s. f.). PRUEBAS PARA COMPROBAR LA NORMALIDAD DE

DATOS EN PROCESOS PRODUCTIVOS: ANDERSON-DARLING, RYAN-

JOINER, SHAPIRO-WILK Y KOLMOGÓROV-SMIRNOV.

http://portal.amelica.org/ameli/journal/341/3412237018/html/

También podría gustarte