INSTITUTO TECNOLÓGICO SUPERIOR DE GUASAVE
CARRERA: INGENIERÍA INDUSTRIAL
MATERIA: SIMULACIÓN
TRABAJO: Investigacion Unidad 4
DOCENTE: BRENDA GUADALUPE DELGADO JÍMENEZ
ALUMNA: GARCÍA LÓPEZ ALICIA ISABEL
MATRÍCULA: 2025010127
GRUPO: 601
Guasave, Sinaloa
INTRODUCCIÓN
La simulación es mucho más que la construcción del modelo y su ejecución.
Como cualquier proyecto, requiere de planeamiento, coordinación y un
entendimiento de los requerimientos de cada una de las tareas involucradas. El
modelado de sistemas requiere de capacidades o habilidades analítica,
estadística, organizacional y de ingeniería. El modelador debe ser capaz de
entender el sistema que está siendo investigado y debe ordenar relaciones
complejas causa-efecto. Estas condiciones proporcionan una guía sobre cómo
debe llevarse a cabo la simulación para obtener estimadores con propiedades
deseables.
Ahora bien, muchos procedimientos estadísticos dependen de la normalidad de
la población, de modo que recurrir a una prueba de normalidad para
determinar si se rechaza este supuesto constituye un paso importante en el
análisis. Entre las pruebas para determinar si los datos de su muestra provienen
de una población no normal, se destacan chi-cuadrad ,Anderson-Darling, entre
otras.
Prueba Chi-cuadrada
Se trata de una prueba de hipótesis a partir de datos, basada en el cálculo de
un valor llamado estadístico de prueba, al cual suele comparársele con un valor
conocido como valor crítico, mismo que se obtiene, generalmente, de tablas
estadísticas.
El procedimiento general de la prueba es:
1. Obtener al menos 30 datos de la variable aleatoria a analizar
2. Calcular la media y varianza de los datos.
3. Crear un histograma de m =√𝑛 intervalos, y obtener la frecuencia
observada en cada intervalo 𝑂𝑖
4. Establecer explícitam ente la hipótesis nula, mediante una distribución de
probabilidad que se ajuste a la forma del histograma.
5. Calcular la frecuencia esperada, E¡, a partir de la función de probabilidad
propuesta.
6. Calcular el estadístico de prueba.
7. Definir el nivel de significancia de la prueba, a, y determinar el valor
crítico de la prueba, 𝑋𝑎,𝑚−𝑘−1
2
(𝑘 es el núm ero de parám etros estim ados
en la distribución propuesta).
8. Comparar el estadístico de prueba con el valor crítico. Si el estadístico
de prueba es menor que el valor crítico no se puede rechazar la hipótesis
nula.
Tipos de pruebas de Chi-Cuadrado
Existen diferentes tipos de pruebas de Chi-Cuadrado: Prueba de bondad de
ajuste, prueba de independencia y prueba de homogeneidad. Ahora te
presentaremos en qué consiste cada uno:
Prueba de bondad de ajuste
La prueba de bondad de ajuste Chi-cuadrado se utiliza para comparar una
muestra recogida aleatoriamente que contiene una única variable categórica
con una población mayor.
Esta prueba se utiliza con mayor frecuencia para comparar una muestra
aleatoria con la población de la que se ha recogido potencialmente.
Prueba de independencia
La prueba de independencia de Chi-Cuadrado busca una asociación entre dos
variables categóricas dentro de la misma población.
A diferencia de la prueba de bondad de ajuste, la prueba de independencia no
compara una única variable observada con una población teórica, sino dos
variables dentro de un conjunto de muestras entre sí.
Prueba de homogeneidad de Chi-Cuadrado
La prueba de homogeneidad de Chi-Cuadrado se organiza y ejecuta
exactamente igual que la prueba de independencia.
La principal diferencia que hay que recordar entre ambas es que la prueba de
independencia busca una asociación entre dos variables categóricas dentro de
la misma población, mientras que la prueba de homogeneidad determina si la
distribución de una variable es la misma en cada una de varias
poblaciones (asignando así la propia población como segunda variable
categórica).
EJEMPLO:
Éstos son los datos del número de automóviles que entran a una gasolinera
cada hora:
Determinar la distribución de probabilidad con un nivel de significancia a de 5
%. El histograma (vea la figura 3.3) de los n = 50 datos, que considera m = 11
intervalos, la media muestral de 15.04 y la varianza muestral de 13.14, permite
establecer la siguiente hipótesis:
Comenzamos por calcular la probabilidad de cada intervalo a partir de la función
de probabilidad de Poisson:
Por ejemplo, para el intervalo 8-9
Enseguida calculamos la frecuencia esperada en cada intervalo, m ultiplicando
la probabilidad p(x) por el total de datos de la muestra:
Y luego estimamos el estadístico de prueba:
El valor del estadístico de prueba, 𝑋02 = 1.7848, comparado con el valor de tablas
crítico, 𝑋𝑂.𝑂5,11−0−1
2
= 18-307, indica que no podemos rechazar la hipótesis de que
la variable aleatoria se comporta de acuerdo con una distribución de Poisson,
con una media de 15 auto móviles/hora.
PRUEBA ANDERSON DARLING
El estadístico de bondad de ajuste de Anderson-Darling -AD- mide el área
entre la línea ajustada basada en la distribución normal y la función de
distribución empírica que se basa en los puntos de los datos-. El estadístico de
Anderson-Darling es una distancia elevada al cuadrado que tiene mayor
ponderación en las colas de la distribución (Jensen & Alexander, 2016).
Según Guisande & Barreiro (2006), el estadístico Anderson Darling puede ser
utilizado para comprobar si los datos satisfacen el supuesto de normalidad para
una prueba t. También se lo puede definir como aquel estadístico no
paramétrico que es utilizado para probar si un conjunto de datos muéstrales
provienen de una población con una distribución de probabilidad continua
específica, por lo general, de una distribución normal. Esta prueba se basa en la
comparación de la función de la distribución acumulada empírica de los
resultados de la muestra con la distribución esperada si los datos fueran
normales. Al momento de obtener los resultados, si la diferencia observada es
suficientemente grande, la hipótesis nula de normalidad de la población es
rechazada.
El procedimiento general de la prueba es:
1. Obtener n datos de la variable aleatoria a analizar.
2. Calcular la media y la varianza de los datos.
3. Organizar los datos en forma ascendente: 𝑦𝑖 𝑖 = 1,2, … . , 𝑛
4. Ordenar los datos en forma descendente. 𝑦𝑛+1−𝑖 𝑖 = 1,2, … . , 𝑛
5. Establecer de manera explícita la hipótesis nula, al proponer una distribución
de probabilidad.
6. Calcular la probabilidad esperada acumulada para cada número, 𝑦𝑖 𝑃𝐸𝐴(𝑌𝑖 ) , y
la probabilidad esperada acumulada para cada número 𝑦𝑛+1−𝑖 ,𝑃𝐸𝐴(𝑦𝑛+1−𝑖 ) ,a
partir de la función de probabilidad propuesta.
7. Calcular el estadístico de prueba.
𝑛
1
𝐴2𝑛 = −[𝑛 + ∑(2𝑖 − 1) [𝐼𝑛 𝑃𝐸𝐴(𝑦𝑖 ) + 𝐼𝑛(1 − 𝑃𝐸𝐴(𝑦𝑛+1−𝑖 )]]
𝑛
𝑖=1
8. Ajustar el estadístico de prueba de acuerdo con la distribución de
probabilidad propuesta.
9. Definir el nivel de significancia de la prueba a, y determinar su valor crítico,
+𝑎𝑎,𝑛 (vea la tabla 3.3).
10. Comparar el estadístico de prueba con el valor crítico. Si el estadístico de
prueba es menor que el valor crítico no se puede rechazar la hipótesis nula.
EJEMPLO:
Los siguientes son los datos de un estudio del tiempo de atención a los clientes
en una florería, medido en minutos/cliente:
Determinar la distribución de probabilidad con un nivel de significancia a de 5
por ciento. El histograma (vea la figura 3.5) de los n = 50 datos, que considera
m= 10 intervalos, la media muestral de 9.786 y la varianza muestral de 5.414,
permite establecer la siguiente hipótesis nula:
En la tabla 3.4 se muestran los resultados de los cálculos de cada uno de los
pasos del procedimiento siguiente:
- En la columna C1 se ordenaron los datos 𝑦𝑖 𝑖 = 1,2, … . ,30 en forma
ascendente.
- En la columna C2 se organizaron los datos 𝑦30+1−𝑖 𝑖 = 1,2, … . ,30 en forma
descendente.
- En la columna C3 se calcula la variable auxiliar 2i-1 𝑖 = 1,2, … ,30 del
estadístico de prueba.
- En las columnas C4 y C5 se calcula la probabilidad esperada acumulada para
cada número 𝑦𝑖 𝑃𝐸𝐴(𝑌𝑖 ) de la columna C1, y el complemento de la probabilidad
esperada acumulada para cada número 𝑦𝑛+1−𝑖 :1- 𝑃𝐸𝐴(𝑦𝑛+1−𝑖 ) de la columna C2
a partir de la función de probabilidad propuesta, que en este ejemplo es una
normal (𝜇 = 10, 𝜎 = 2.0).
Si se toma, por ejemplo, el renglón 𝑖= 7 con 𝑌7 = 7.8266 de la columna C1 y 𝑌24 =
10.0562 de la columna C2, y se estandarizan ambos valores.
se encuentra la probabilidad acumulada en la tabla normal estándar. De esta
forma tenemos una 𝑃𝐸𝐴7 = 0.1385 para z = -1 .0 8 6 7 y, para z = 0.0285 una
𝑃𝐸𝐴24 = 0.5112 y 1 - 𝑃𝐸𝐴24 = 0.4888. En las colum nas C6, C7 y C8 se desglosan
los cálculos del estadístico de prueba
Una vez calculado el estadístico de prueba, es necesario ajustarlo de acuerdo
con la tabla 3.3. En este caso, como tenemos n ≥ 5, no se requiere ajuste. Por
último, al comparar el estadístico de prueba 𝐴2𝑛 = 2.825724 con el valor crítico y
el nivel de significancia seleccionado, 𝑎0.05,30 = 2 2.492 (tabla 3.3 de valores
críticos de 𝛼), se rechaza la hipótesis 𝐻0 .
Replanteamiento de una nueva hipótesis:
En la tabla 3.5 se presenta el resumen de resultados de cada uno de los pasos
del procedimiento; la modificación se ve reflejada en los cálculos de las
probabilidades esperadas acumuladas. Por ejemplo, para el renglón i= 7
tenemos ahora:
Con estos valores se encuentra la probabilidad esperada acumulada en la tabla
normal estándar: a z = -0.8887 le corresponde 𝑃𝐸𝐴7 = 0.18707, y a z = 0.2261,
𝑃𝐸𝐴24 = 0.5894 y 1 - 𝑃𝐸𝐴24 = 0.4106. Al calcular de nuevo el estadístico de prueba
se obtiene:
Una vez calculado el estadístico de prueba, es necesario ajustarlo de acuerdo
con la tabla 3.3. En este caso, como tenemos n ≥ 5, no se requiere ajuste. Por
último, al comparar el estadístico de prueba 𝐴2𝑛 =1.3516 con el valor crítico y el
nivel de significancia seleccionado, 𝑎0.05,30 = 2.492 (tabla 3.3 de valores críticos
de 𝛼), vem os que no se puede rechazar la hipótesis 𝐻0 .
CONCLUSIÓN
En conclusión como primera parte la prueba de chi-cuadrada creada por Karl
Pearson, es una prueba recomendable para distribuciones discretas y continuas
cuando exista una gran cantidad de datos. La idea clave tras la prueba es
comparar los valores observados en los datos con los valores esperados que
tendríamos si la hipótesis nula es cierta.
Mientras que la prueba de Anderson -Darling es recomendable para
distribuciones con colas pronunciadas. Esta prueba es usada para probar si una
muestra viene de una distribución especifica .
Referencias Bibliográficas.
• Carmona, M., & Carrión, H. (2015). Potencia de la prueba estadística de
normalidad Jarque-Bera frente a las pruebas de Anderson-Darling,
Jarque-Bera robusta, Chi cuadrada, Chen-Shapiro y Shapiro-Wilk
[Universidad Autónoma del Estado de México].
https://core.ac.uk/download/pdf/159384191.pdf
• Simulación y análisis de sistemas con ProModel, 2da Edición
• Tapia, C. E. F. (s. f.). PRUEBAS PARA COMPROBAR LA NORMALIDAD DE
DATOS EN PROCESOS PRODUCTIVOS: ANDERSON-DARLING, RYAN-
JOINER, SHAPIRO-WILK Y KOLMOGÓROV-SMIRNOV.
http://portal.amelica.org/ameli/journal/341/3412237018/html/