TECNOLÓGICO NACIONAL DE MÉXICO
INSTITUTO TECNOLÓGICO DE CERRO AZUL
Periodo: Enero-Junio 2024
Carrera: Ingeniería industrial
Semestre: 6to
Materia:
SIMULACIÓN
Clave: INC-1027
Docente: Lic. Ana Lilia Calderón Castro
Alumnos:
Azuara Bautista Artemio (21500503)
Bautista Carballo Lucero (21500517)
García Santiago Hazel Carolina (22500517)
Gómez Juárez Ileana Sarahi (21500542)
Rodríguez Rosas Ariadne (21500597)
Cerro Azul Ver., 29/04/24
1
Contenido
INTRODUCCIÓN ....................................................................................................... 3
4.1 LISTA DE ESTIMADORES A OBTENER DE LA SIMULACIÓN ........................ 4
4.1.1 INSTRUMENTOS DE MEDICIÓN ................................................................. 5
4.1.2 MEDIOS DE REGISTRO DE DATOS ........................................................... 6
4.2 IDENTIFICACIÓN DEL ESTIMADOR DETERMINANTE (ESTIMADOR LÍDER)
DEL TAMAÑO DE LA SIMULACIÓN ........................................................................ 7
4.3 MUESTRAS PRELIMINARES DE LOS PROYECTOS APROBADOS EN 3.4 . 10
4.4 CARACTERÍSTICAS ESTADÍSTICAS DEL ESTIMADOR LÍDER.................... 12
4.4.1 ESTABLECIMIENTO DE LA PRECISIÓN .................................................. 15
4.4.2 CÁLCULO DEL NÚMERO MÍNIMO DE OBSERVACIONES NECESARIAS
.............................................................................................................................. 16
4.4.3 INTERVALOS DE CONFIANZA.................................................................. 18
4.5 MUESTRAS DEFINITIVAS ................................................................................ 20
4.5.1 ESTADÍSTICAS DESCRIPTIVAS ............................................................... 22
4.5.2. MUESTRAS PEQUEÑAS: PRUEBA DE KOLMOGÓROV-SMIRNOV
PARA AJUSTE DE UNA DISTRIBUCIÓN DE PROBABILIDADES CONTINUAS
HIPOTÉTICA (EN HOJA DE CÁLCULO O CON PAQUETE ESTADÍSTICO) .... 23
4.5.3. MUESTRAS GRANDES: PRUEBA DE KARL-PEARSON PARA AJUSTE
DE UNA DISTRIBUCIÓN DE PROBABILIDADES HIPOTÉTICA, DISCRETA O
CONTINUA (EN HOJA DE CÁLCULO O CON PAQUETE ESTADÍSTICO) ....... 26
4.5.4 OTRAS PRUEBAS: ANDERSON DARLING Y PRUEBA G....................... 32
4.6 SIMULACIÓN DE LOS COMPORTAMIENTOS ALEATORIOS DEL
PROYECTO Y SU VERIFICACIÓN. ........................................................................ 34
CONCLUSIÓN ......................................................................................................... 37
FUENTES CONSULTADAS .................................................................................... 38
2
INTRODUCCIÓN
En la simulación, el diseño de la calidad es fundamental en la evaluación y mejora de
los modelos. En un mundo donde la toma de decisiones se basa cada vez más en el
análisis de datos y la predicción de resultados, la calidad de la simulación se convierte
en un factor crítico para garantizar la validez y confiabilidad de los resultados
obtenidos.
El diseño de la calidad de la simulación abarca una variedad de aspectos, desde la
precisión de los datos de entrada hasta la validación y verificación de los modelos
utilizados. Se trata de asegurar que la simulación capture adecuadamente los
procesos y fenómenos del mundo real que se están modelando, de modo que las
conclusiones y recomendaciones derivadas de la simulación sean válidas y útiles para
la toma de decisiones.
Para lograr este objetivo, es necesario aplicar principios de diseño experimental,
técnicas de validación y verificación, así como métodos de análisis de sensibilidad y
robustez. Esto implica no solo entender en profundidad los sistemas que se están
simulando, sino también tener un conocimiento sólido de las herramientas y técnicas
de modelado y simulación disponibles.
En este contexto, el diseño de la calidad de la simulación se convierte en un proceso
iterativo y colaborativo, donde expertos en dominio, analistas de datos y
desarrolladores trabajan para asegurar que la simulación refleje de manera precisa y
fidedigna la realidad estudiada.
3
4.1 LISTA DE ESTIMADORES A OBTENER DE LA SIMULACIÓN
Los estimadores son variables aleatorias y tienen asociadas una distribución de
muestreo, a la cual nos acercamos por medio de herramientas de simulación, las
cuales juegan un papel fundamental, ya que mediante ellas el estudiante comprende
la distribución de muestral de varios estimadores y le es fácil conectar aspectos
inferenciales a partir de los resultados computacionales obtenidos.
Este procedimiento parece intuitivamente razonable. Sin embargo, no hemos
mostrado realmente, al menos hasta ahora, que el estimador resultante tenga
propiedades deseables, como consistencia, normalidad asintótica o eficiencia.
Las técnicas de simulación en estadística, como son los métodos de Monte Carlo, y
los procedimientos de muestreo conocidos como Bootstrap, son de gran utilidad
cuando no tenemos expresiones cerradas para calcular medidas de incertidumbre
como son la desviación estándar de estimadores y los intervalos de confianza. Estos
métodos de simulación permiten obtener estimaciones con menores supuestos que
los métodos analíticos, a cambio de un trabajo computacional más intenso. La
disponibilidad creciente de los recursos computacionales, hacen de las técnicas
de simulación una herramienta de uso creciente.
Propiedades de los estimadores:
1) Parámetro. Verdadero valor de una característica de interés, denominado por θ,
que raramente es conocido.
2) Estimativa. Valor numérico obtenido por el estimador, denominado de θ̂ en una
muestra.
3) Viés y no viés. Un estimador es no in-sesgado si: E(θ̂) = θ, onde el viés es dado
por: vies(θ̂) = E(θ ˆ θ) = E(θ̂) − θ
Cuadrado medio del error (ECM). Es dado por:
ECM (θ̂) = E(θ̂ − θ)2 = V (θ̂) + (vies)
1) Un estimador es consistente si: plim(θ̂) = θ ; y lim −→ ∞ECM (θ̂) = 0
4
2) Las leyes de los grandes números explican por qué́ el promedio o media de una
muestra al azar de una población de gran tamaño tenderá a estar cerca de la media
de la población completa.
4.1.1 INSTRUMENTOS DE MEDICIÓN
Un instrumento de medición es aquel elemento empleado con el propósito de
contrastar magnitudes físicas distintas a través de un procedimiento de medición. Se
clasifican de acuerdo a la magnitud física que se desee medir:
Instrumentos desarrollados para medir la masa.
• BALANZA: Es un tipo de palanca constituida por brazos análogos, que
mediante el equilibrio obtenido entre pesos de dos elementos permite medir
masas.
• CATAROMTERO: Con este término se designa al instrumento capaz de medir
ciertas concentraciones de gas, teniendo en cuenta una comparación de la
conductividad térmica.
• BÁSCULA: La palabra proviene del francés bascule y se refiere a un
dispositivo empleado para estipular la masa de un cuerpo. Suelen constituirse
por una base en posición horizontal, en la cual se ubica el cuerpo a pesar.
Gracias a este sistema, es posible establecer el peso de elementos de gran
magnitud de manera sencilla.
Instrumentos utilizados para medir el tiempo.
• CALENDARIO: consiste en un elemento creado con el propósito de llevar una
contabilización del tiempo. La mayor parte de éstos se llaman calendarios
solares. Esto es porque toman como referencia el período empleado por la
tierra para dar una vuelta alrededor del sol.
• CRONÓMETRO: es un elemento ubicado dentro de las categorías de los
relojes cuyo objetivo consiste en la medición de fracciones mínimas de tiempo.
• RELOJ: el término se refiere al elemento capaz de medir el tiempo, por medio
de la división del mismo en horas, minutos y segundos.
• DATACIÓN RADIOMÉTRICA: a través de este proceso es posible fijar con
exactitud la edad de los minerales, rocas, etc. consiste en la realización de un
análisis tanto de un isótopo padre como un hijo, cuya vida media es conocida.
5
Un ejemplo de este procedimiento es la datación por radiocarbono, llevada a
cabo a partir de la desintegración del carbono
Instrumentos empleados para la medición de longitud:
• CINTA MÉTRICA: a través de la misma es posible la medición de una
superficie determinada. Se basa en una cinta graduada y de gran maleabilidad,
lo cual permite medir áreas formadas por curvas.
• CALIBRADOR: este instrumento se emplea con el fin de medir extensiones de
aquellos elementos de tamaño reducido. Otorga la posibilidad de apreciar tanto
centímetros como unidades milimétricas.
4.1.2 MEDIOS DE REGISTRO DE DATOS
La elección del método depende de la estrategia de recopilación de datos, el tipo de
variable, la precisión necesaria, el punto de recopilación y la formación del
encuestador. Los vínculos entre una variable, su origen y los métodos prácticos para
su recopilación. Pueden ayudar a escoger métodos apropiados. Los principales
métodos de recopilación de datos son:
1. Registros: los registros y licencias son particularmente valiosos para los
censos completos, pero se limitan a variables que cambian lentamente, como
el número de embarcaciones pesqueras y sus características.
2. Cuestionarios: formularios que los encuestados devuelven cumplimentados.
Un método poco costoso que resulta útil cuando los índices de alfabetización
son altos y los encuestados colaboran.
3. Entrevistas: formularios que se cumplimentan a lo largo de una entrevista con
el encuestado. Más caros que los cuestionarios, pero mejores para preguntas
más complejas, y cuando se dan unos índices de alfabetización bajos o se
encuentra menos colaboración.
4. Observaciones directas: la realización de mediciones directas es el método
más preciso para todas las variables, como las capturas, pero a menudo
resulta caro. Muchos métodos, como los programas de observación, se limitan
a la pesca industrial.
5. Presentación de informes: la principal alternativa a la realización de
mediciones directas consiste en pedir a los pescadores y a terceros que
6
presenten informes de sus actividades. La preparación de informes presupone
la alfabetización y requiere espíritu de colaboración, pero ello puede reforzarse
mediante una obligación legal y mediciones directas.
Las técnicas de recogida de la información no son un fin en sí mismo, sino que
dependen de:
• El tipo de investigación que se esté haciendo.
• El tipo de análisis de datos que vamos a utilizar posteriormente.
• El problema que queramos estudiar.
• Los objetivos que pretendamos alcanzar con la investigación.
Algunas técnicas se pueden utilizar en distintos diseños, por ejemplo, la entrevista se
puede utilizar en: investigación acción, en estudios de caso, en investigación
etnográfica, etc.
4.2 IDENTIFICACIÓN DEL ESTIMADOR DETERMINANTE
(ESTIMADOR LÍDER) DEL TAMAÑO DE LA SIMULACIÓN
En la estadística tiene un papel destacado la noción de MUESTRA ALEATORIA.
Una muestra aleatoria de tamaño n es:
• Una colección de n variables aleatorias.
• Todas con la misma distribución.
• Todas independientes.
Esta definición idealiza la operación de repetir n veces la observación de la misma
variable aleatoria, siendo las repeticiones independientes una de otra. La colección
de donde extraemos la muestra aleatoria, se denomina población. Nuestra intención
al tomar una muestra es la de hacer inferencia. Este término lo usamos en estadística
para denotar al procedimiento con el que hacemos afirmaciones acerca de valores
generales de la población mediante los números que observamos en la muestra.
Ejemplo
Suponga que observamos el proceso de fabricación de las "bolitas" que se le ponen
al envase de los desodorantes "roll on". No todas las bolitas van a tener el mismo
diámetro, si escogemos, al azar una bolita, tendremos un valor para el diámetro que
es una variable aleatoria. Podemos suponer que los diámetros tienen la distribución
7
normal, debido a nuestra experiencia con el proceso, conocemos que la desviación
estándar de la población es de 4 mm (aproximadamente). Pero, también por
experiencia, sabemos que el diámetro promedio puede variar por desajuste de la
maquinaria productora. De modo que tenemos:
• Una POBLACIÓN, que son todas las bolitas que se producen.
• Un PARÁMETRO de la población conocido (o casi) que es la desviación
estándar.
• Otro PARÁMETRO cuyo valor es desconocido: la media.
Para tratar de conocer el valor del parámetro que desconocemos, tomamos una
MUESTRA de las bolitas. Supongamos que son 100 bolitas en la muestra. Con un
instrumento de precisión, y con mucho cuidado, medimos los diámetros de las 100
bolitas de la muestra y calculamos su promedio.
¿Qué nos dice el valor de la media de la muestra respecto a la media de la población?
• Por un lado, la media de la muestra NO será igual a la de la población.
• Por otra parte, no tenemos mejor información respecto a la media de la
población que la que extraigamos de la muestra.
• Por último, sería muy extraño que, si la población de bolitas tiene, por decir
algo, un diámetro promedio de 45 mm, nos tocaran 100 bolitas en la muestra
con un promedio de, digamos, 32 mm.
• Además, si alguien nos preguntara ¿cómo cuánto es el diámetro promedio de
la población de bolitas? Le contestaríamos diciendo el valor que hayamos visto
en la muestra.
• A nuestra contestación debíamos agregarle alguna advertencia como: "más o
menos", o " aproximadamente"
A un valor calculado con los datos de una muestra lo llamamos estadística. Cuando
usamos una estadística para jugar el papel de decir, aproximadamente, el valor de un
parámetro de la población, le llamamos estimador. Cuando andamos un poco
pedantes le llamamos estimador puntual (al decir ""puntual" queremos decir que
para estimar el parámetro estamos usando un valor único).
8
Regresando a las bolitas del "Roll on". Si la muestra de 100 bolitas arroja un valor del
promedio de 43.5 mm, diríamos que ESTIMAMOS el promedio de la población en
43.5 mm.
Por definición, el valor de, una variable cambia conforme avanza la simulación,
aunque se le debe dar un valor inicial. Cabe recordar que el valor de un parámetro
permanece constante; sin embargo, puede cambiar conforme se estudian diferentes
alternativas en otras simulaciones.
Determinación de condiciones iniciales. La determinación de condiciones iniciales
para las variables es una decisión táctica importante en la simulación.
Lo anterior se debe a que el modelo se sesga por una serie de valores iniciales hasta
que el modelo llega a un estado estable.
Para manejar este problema, los analistas han seguido varios planteamientos como:
1) Descartar los datos generados durante las primeras partes de la ejecución.
2) Seleccionar las condiciones iniciales que reducen la duración del periodo de
calentamiento.
3) Seleccionar las condiciones iniciales que eliminan el sesgo. Sin embargo, para
emplear cualquiera de estas alternativas, el analista debe tener una idea del margen
de datos de salida esperado. Por lo tanto, en cierto sentido, el analista sesga los
resultados. Por otro lado. una de las únicas características de la simulación es que
permite la crítica en el diseño y análisis de la simulación, por lo que si el analista tiene
cierta información que alberga un problema, se debe incluir.
Determinación de duración de la ejecución. La duración de la ejecución de
simulación (duración de la ejecución o tiempo de ejecución) depende del propósito de
la simulación.
Quizás el planteamiento más común sea continuar la simulación hasta lograr un
equilibrio. En el ejemplo del mercado de pescado, significaría que las ventas
simuladas de pescado corresponden a sus frecuencias relativas históricas. Otro
planteamiento es ejecutar la simulación durante un periodo establecido como 1 mes,
1 año o una década y ver si las condiciones al final del periodo son razonables. Un
tercer planteamiento es establecer la duración de la ejecución de modo que se
9
obtenga una muestra suficientemente grande para efectos de pruebas de hipótesis
estadística.
Desde luego que las conclusiones que se pueden obtener de una simulación
dependen del grado en que el modelo refleja el sistema real, aunque también depende
del diseño de la simulación en un sentido estadístico.
De hecho, muchos analistas consideran la simulación como una forma de prueba de
hipótesis donde cada ejecución de simulación ofrece uno o más datos de muestra
que son susceptibles al análisis formal a través de los métodos estadísticos
inferenciales. Los procedimientos estadísticos que normalmente se usan en la
evaluación de resultado de simulación incluyen el análisis de varianza, análisis de
regresión y pruebas t.
En la mayoría de las situaciones, el análisis tiene más información disponible con la
cual comparar los resultados de simulación: datos operativos antiguos del sistema
real, datos operativos del desempeño de sistemas semejantes y la percepción del
analista de la operación del sistema real. Sin embargo, se debe admitir que la
información obtenida de estas fuentes probablemente no sea suficiente para validar
las conclusiones derivadas de la simulación. Por lo tanto, la única prueba real de una
simulación es qué tan bien se desempeña el sistema real después de haber
implantado los resultados del estudio.
Un requerimiento lógico para un estimador es que su precisión mejore al aumentar el
tamaño muestral. Es decir, que esperaremos obtener mejores estimaciones cuanto
mayor sea el número de individuos.
Si se cumple dicho requerimiento, diremos que un estimador es consistente. Desde
un punto de vista más riguroso diremos que un estimador es consistente si converge
en probabilidad al verdadero valor del parámetro que queremos estimar.
4.3 MUESTRAS PRELIMINARES DE LOS PROYECTOS
APROBADOS EN 3.4
Las muestras preliminares son versiones iniciales o ejemplos tempranos de los
proyectos que se están desarrollando. Estas muestras pueden incluir prototipos,
esquemas iniciales, resultados de investigaciones preliminares, entre otros.
10
Las muestras preliminares podrían incluir:
1. Prototipos de software: Si el proyecto implica el desarrollo de un software de
simulación, las muestras preliminares podrían ser versiones iniciales del software con
funciones básicas implementadas.
2. Borradores de modelos de simulación: Si el proyecto implica la creación de
modelos de simulación, las muestras preliminares podrían ser versiones iniciales de
estos modelos, con estructuras básicas y suposiciones establecidas.
3. Resultados de investigación inicial: Si el proyecto implica investigaciones
previas, las muestras preliminares podrían incluir resúmenes de literatura relevante,
análisis preliminares de datos, o hipótesis iniciales.
4. Esquemas o bosquejos del proyecto: Las muestras preliminares podrían
también tomar la forma de esquemas o bosquejos del proyecto final, que incluyan la
estructura general del proyecto, los objetivos principales y la metodología propuesta.
En relación con los lineamientos de la guía para la elaboración de la monografía del
proyecto, las muestras preliminares deberían estar alineadas con los requisitos y
expectativas establecidos en dicha guía. Esto podría implicar que las muestras
preliminares deben demostrar una comprensión clara del problema a abordar, una
metodología adecuada para la simulación, y un plan claro para la ejecución del
proyecto.
Para obtener muestras preliminares de los proyectos aprobados en el contexto del
inicio del proyecto final de simulación podrías considerar las siguientes acciones:
1. Revisar proyectos anteriores: Analizar proyectos de simulación anteriores que
hayan sido exitosos puede proporcionar ideas y ejemplos útiles para las muestras
preliminares.
2. Realizar investigaciones preliminares: Realizar investigaciones preliminares
sobre el tema del proyecto puede ayudar a identificar enfoques y métodos relevantes
que se pueden incluir en las muestras preliminares.
3. Consultar con expertos: Buscar orientación y retroalimentación de profesores,
expertos en el campo de estudio y otros estudiantes puede ayudar a refinar las
muestras preliminares y garantizar su calidad.
11
4. Iterar y mejorar: Es importante recordar que las muestras preliminares son
versiones iniciales y pueden requerir iteraciones y mejoras continuas a medida que el
proyecto avanza.
4.4 CARACTERÍSTICAS ESTADÍSTICAS DEL ESTIMADOR LÍDER
Un estimador es un valor que puede calcularse a partir de los datos muéstrales y que
proporciona información sobre el valor del parámetro. Por ejemplo, la media muestral
es un estimador de la media poblacional, la proporción observada en la muestra es
un estimador de la proporción en la población.
Los estimadores desean características para que sean una buena aproximación a los
respectivos parámetros. Se trata de rasgos que podrían entenderse como criterios de
calidad de los estimadores.
• Carencia de sesgo. Se dice que un estimador es insesgado si el valor
esperado de su distribución de probabilidad es igual al parámetro. Es decir, si
es igual a ⊖ la media de los valores Ê calculados en cada una de las muestras
aleatorias posibles del mismo tamaño. Si el estadístico Ê es utilizado como
estimador del parámetro Ê, ese estimador carece de sesgo cuando E (Ê) = ⊖
Estimadores insesgados son la Media muestral (estimador de la Media de la
población) y la Varianza (estimador de la Varianza de la población):
Ejemplo
En una población de 500 puntuaciones cuya Media (m) es igual a 5.09 han hecho un
muestreo aleatorio (número de muestras= 10000, tamaño de las muestras= 100) y
hallan que la Media de las Medias muestrales es igual a 5.09, (la media poblacional y
la media de las medias muestrales coinciden). En cambio, la Mediana de la población
es igual a 5 y la Media de las Medianas es igual a 5.1 esto es, hay diferencia ya que
la Mediana es un estimador sesgado.
12
La Varianza es un estimador sesgado. Ejemplo: La Media de las Varianzas obtenidas
con la Varianza
en un muestreo de 1000 muestras (n=25) en que la Varianza de la población es igual
a 9.56 ha resultado igual a 9.12, esto es, no coinciden. En cambio, al utilizar la Cuasi
varianza
a Media de las Varianzas muestrales es igual a 9.5, esto es, coincide con la Varianza
de la población ya que la Cuasi varianza es un estimador insesgado.
• Consistencia. Un estimador Ê es consistente si, además de carecer de sesgo,
se aproxima cada vez más al valor del parámetro a medida que aumenta el
tamaño de la muestra. Si el tamaño n se hace indefinidamente grande, los
valores de Ê se concentran cada vez más en torno al valor del parámetro, hasta
que con un tamaño muestral infinito obtenemos una varianza del estimador
nula. Por tanto, un estimador es consistente si cuando n tiende a infinito se
cumple
E(Ê) = ⊖; var (Ê) = 0
Algunos estimadores consistentes son:
13
Ejemplo
En una población de 500 puntuaciones cuya Media (m) es igual a 4.9 han hecho tres
muestreos aleatorios (número de muestras= 100) con los siguientes resultados:
vemos que el muestreo en que n=100 la Media de las Medias muestrales toma el
mismo valor que la Media de la población.
• Eficiencia. La eficiencia de un estimador está vinculada a su varianza
muestral. Así, para un mismo parámetro ⊖, se dice que el estimador Ê, es más
eficiente que el estimador Ê2 si se cumple var(Ê1) < var(Ê2)
Por tanto, si un estadístico es más eficiente que otro, significa que varía menos de
unas muestras a otras. Se demuestra que la media es un estimador del parámetro µ
más eficiente que la mediana. Del mismo modo, la varianza S n-12 es un estimador de
σ2 más eficiente que Sn2
Cuanto menor es la eficiencia, menor es la confianza de que el estadístico obtenido
en la muestra aproxime al parámetro poblacional.
Ejemplo
La Varianza de la distribución muestral de la Media en un muestreo aleatorio (número
de muestras: 1000, n=25) ha resultado igual a 0.4. La Varianza de la distribución de
Medianas ha resultado, en el mismo muestreo, igual a 1.12, (este resultado muestra
que la Media es un estimador más eficiente que la Mediana).
14
4.4.1 ESTABLECIMIENTO DE LA PRECISIÓN
Sea H un intervalo cualquiera definido sobre la recta real. Definiremos ahora una
variable ficticia, XH, de la siguiente forma:
De manera que cada observación de Xt lleva
asociada una observación con valor o ó 1- de la
variable XNr. La función de densidad teórica
desconocida de Xt asigna una probabilidad pH al intervalo H. Esto significa que:
Producir T replicaciones del vector y, implica
disponer de una muestra de T “observaciones"
de la variable real X. Esta muestra lleva asociada, a su vez, una muestra de tamaño
T de la variable Xy. Esta variable sigue una distribución binaria de parámetro pH, así
que la suma de las T observaciones de XH, ZH = XH^ +.,. + X y T, sigue una
distribución binomial b (pH, ^. Es oportuno aquí hacer una adaptación al presente
contexto del concepto de estimación precisa de Finster {1987) Definición 1., ZH /T es
una estimación precisa de pN con nivel de imprecisión A y confianza 1-a (can 0< cx
< 1), si
EI conjunta de precisión [-A, A] es el
conjunto de errores de simulación
aceptables. En lo que sigue a continuación
se intentará determinar cuál es el número de replicaciones mínimo para obtener una
estimación de pH can nivel de imprecisión fijo A y confianza 1-a. EI teorema de Moivre
(ver por ejemplo Fz. de Trocóniz 1993) prueba que la sucesión b (pH ,1), b (pH ,2),
..., b (pH, 7^, es asintóticamente normal N {T pH, T p^ [1- pH]) de manera que si T pH
> 1 S se suele tomar como válida la siguiente aproximación a la distribución de ZH:
entonces, para la frecuencia binomial, ZH IT, se tiene:
15
Si t^ es el cuantil aJ2 correspondiente a la
cola derecha de la distribución N (0,1),
4.4.2 CÁLCULO DEL NÚMERO MÍNIMO DE OBSERVACIONES
NECESARIAS
El tamaño de la muestra o cálculo de número de observaciones es un proceso vital
en la etapa de cronometraje, dado que de este depende en gran medida el nivel de
confianza del estudio de tiempos. Este proceso tiene como objetivo determinar el valor
del promedio representativo para cada elemento.
Los métodos más utilizados para determinar el número de observaciones son:
• Método estadístico
• Método tradicional
• Método Estadístico
MÉTODO ESTADÍSTICO
El método estadístico requiere que se efectúen cierto número de observaciones
preliminares (n'), para luego poder aplicar la siguiente fórmula:
Siendo:
n = Tamaño de la muestra que deseamos calcular (número de observaciones)
n'= Número de observaciones del estudio preliminar ≤
= Suma de los valores x = Valor de las observaciones.
40 = Constante para un nivel de confianza de 94,45%
16
Ejemplo:
Se realizan 5 observaciones preliminares, los valores de los respectivos tiempos
transcurridos en centésimas de minuto son: 8, 7, 8, 8, 7. Ahora pasaremos a calcular
los cuadrados que nos pide la fórmula:
Dado que el número de observaciones preliminares (5) es inferior al requerido (7),
debe aumentarse el tamaño de las observaciones preliminares, luego recalcular n.
Puede ser que en recalculo se determine que la cantidad de 7 observaciones sean
suficientes.
Este método consiste en seguir el siguiente procedimiento sistemático:
1) Realizar una muestra tomando 10 lecturas sí los ciclos son <= 2 minutos y 5
lecturas si los ciclos son > 2 minutos, esto debido a que hay más confiabilidad en
tiempos más grandes, que en tiempos muy pequeños donde la probabilidad de error
puede aumentar.
17
2) Calcular el rango o intervalo de los tiempos de ciclo, es decir, restar del tiempo
mayor el tiempo menor de la muestra:
Siendo
3) Buscar ese cociente en la siguiente tabla, en la columna (R/X), se ubica el valor
correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el
número de observaciones a realizar para obtener un nivel de confianza del 95% y un
nivel de precisión de ‡ 5%.
4.4.3 INTERVALOS DE CONFIANZA
Un intervalo de confianza es un rango de valores, derivado de los estadísticos de la
muestra, que posiblemente incluya el valor de un parámetro de población
desconocido.
Debido a su naturaleza aleatoria, es poco probable que dos muestras de una
población en particular generen intervalos de confianza idénticos. Sin embargo, si
repitiera muchas veces un determinado porcentaje de los intervalos de confianza
resultantes incluiría el parámetro de población desconocido.
18
En este caso, la línea negra horizontal representa el valor fijo de la media desconocida
de la población, p. Los intervalos de confianza azules verticales que se sobreponen a
la línea horizontal contienen el valor de la media de la población. El intervalo de
confianza rojo que está completamente por debajo de la línea horizontal no lo
contiene: Un intervalo de confianza de 95% indica que 19 de 20 muestras (95%) de
la misma población generarán intervalos de confianza que contendrán el parámetro
de población.
Utilice el intervalo de confianza para evaluar la estimación del parámetro de población.
Por ejemplo, un fabricante desea saber si la longitud media de los lápices que produce
es diferente de la longitud objetivo. El fabricante toma una muestra aleatoria de
lápices y determina que la longitud media de la muestra es 52 milímetros y el intervalo
de confianza de 95% es (50,54). Por tanto, puede estar 95% seguro de que la longitud
media de los lápices es de entre 50 y 54 milímetros.
El intervalo de confianza se determina calculando una estimación de punto y luego
determinando su margen de error.
Estimación de punto
Este valor individual estima un parámetro de población usando los datos de su
muestra.
Margen de error
Cuando utiliza estadísticos para estimar un valor, es importante recordar que sin
importar lo bien que esté diseñado su estudio, su estimación está sujeta a error de
muestreo aleatorio.
El margen de error cuantifica este error e indica la precisión de su estimación.
19
Por ejemplo, una encuesta política podría indicar que el nivel de popularidad de un
candidato es de 55% con un margen de error de 5%. Esto significa que el nivel de
popularidad real es +/- 5% y, por lo tanto, se ubica entre 50% y 60%.
Para un intervalo de confianza bilateral, el margen de error es la distancia desde el
estadístico estimado hasta el valor de cada intervalo de confianza. Cuando un
intervalo de confianza es simétrico, el margen de error es la mitad del ancho del
intervalo de confianza. Por ejemplo, la longitud media estimada de un árbol de levas
es 600 mm y el intervalo de confianza oscila entre 599 y 601. El margen de error es
1.
Mientras mayor sea el margen de error, más ancho será el intervalo y menos seguro
podrá estar usted del valor de la estimación de punto.
4.5 MUESTRAS DEFINITIVAS
Es un subconjunto de datos perteneciente a una población de datos. En el contexto
de la simulación, las muestras definitivas son conjuntos de datos finales que se
consideran representativos de un sistema o fenómeno específico que está siendo
modelado. Estas muestras son esenciales para realizar análisis detallados y extraer
conclusiones significativas sobre el comportamiento del sistema simulado.
Características:
▪ Tamaño suficientemente grande: Para que una muestra estadística sea
representativa deberá ser lo suficientemente grande como para considerarse
representativa
▪ Aleatoriedad: Si en lugar de realizarlo al azar, realizamos un proceso de
selección de datos planificado, estamos introduciendo un sesgo a la obtención
de datos
Importancia de las muestras definitivas:
• Representatividad: Las muestras definitivas deben seleccionarse para
representar con precisión el sistema modelado. Esto implica recopilar datos de
manera adecuada y representativa para capturar la variabilidad y la
complejidad del sistema.
20
• Fiabilidad del modelo: La calidad de un modelo de simulación depende en
gran medida de la calidad de los datos utilizados para desarrollarlo. Al utilizar
muestras definitivas, se aumenta la confianza en la capacidad del modelo para
predecir el comportamiento del sistema en situaciones futuras.
• Validación y verificación: Las muestras definitivas son fundamentales
durante el proceso de validación y verificación del modelo de simulación.
Comparar los resultados de la simulación con datos reales permite evaluar la
precisión y la eficacia del modelo en la reproducción del comportamiento
observado.
• Análisis detallado: Con muestras definitivas en mano, es posible realizar
análisis detallados sobre diversos aspectos del sistema simulado. Esto incluye
estudiar la distribución de los datos, identificar patrones, calcular estadísticas
descriptivas y evaluar el rendimiento del sistema en diferentes escenarios.
Tipos:
• Probabilístico: En este tipo de muestras todos los sujetos disponibles tienen
las mismas probabilidades de ser incluidos:
a. Muestra aleatoria simple:
b. Muestra aleatoria sistemática
c. Muestra aleatoria por conglomerados
d. Muestra estratificada
• NO Probabilístico: En este tipo de selección de muestra todos los elementos
no tienen la misma probabilidad de ser elegidos, ya que depende del
procedimiento escogido para seleccionarlos
a. Muestra de Bola de Nieve
b. Muestra por Cuotas
c. Muestra Discrecional
d. Muestra por Convivencia
Proceso de obtención de muestras definitivas:
1. Recopilación de datos: Se recopilan datos relevantes del sistema mediante
observaciones directas, experimentos o fuentes secundarias, asegurando que
la muestra sea lo más representativa posible.
21
2. Preprocesamiento: Los datos recopilados pueden requerir cierto grado de
limpieza y preprocesamiento para eliminar valores atípicos, corregir errores o
completar datos faltantes.
3. Selección de muestras: Se seleccionan muestras que abarquen la
variabilidad del sistema y que sean lo suficientemente grandes como para
proporcionar una base sólida para el análisis.
4. Análisis y validación: Se realizan análisis estadísticos y se comparan los
resultados con el conocimiento existente sobre el sistema para validar la
representatividad de las muestras seleccionadas.
En resumen, las muestras definitivas son fundamentales para el desarrollo, validación
y análisis de modelos de simulación. Proporcionan una base sólida para entender y
predecir el comportamiento de sistemas complejos en una variedad de escenarios.
4.5.1 ESTADÍSTICAS DESCRIPTIVAS
La estadística descriptiva es el enfoque analítico de la estadística donde se analizan
los datos recolectados para posteriormente describir su comportamiento en el
contexto de la investigación. En la interpretación de los datos recopilados en el
estudio, se diferencian dos tipos de variables:
Variable cuantitativa: Se refiere a todos aquellos valores numéricos, con los que se
pueden realizar cálculos.
Variable cualitativa: son todos aquellos valores no numéricos que constituyen las
características de los objetos de estudio
Conceptos básicos: De igual manera, uno
de los conceptos básicos de la estadística
descriptiva los parámetros estadísticos, a
partir de los cuales esta rama se divide en
tres tipos o enfoques:
1. Distribución de frecuencias.
2. Medición de tendencia central.
3. Medición de variabilidad o dispersión.
22
Características:
Entre las características que definen el concepto de estadística descriptiva se
encuentran:
• Uso de gráficos para la representación de la información.
• Análisis aritmético del comportamiento de los datos.
• Uso de fórmulas para la interpretación de la información.
• Precisión y rigurosidad analítica.
• Base para la deducción del comportamiento de los datos en el futuro.
• Simplificación de la complejidad teórica.
• Capacidad divulgativa.
4.5.2. MUESTRAS PEQUEÑAS: PRUEBA DE KOLMOGÓROV-
SMIRNOV PARA AJUSTE DE UNA DISTRIBUCIÓN DE
PROBABILIDADES CONTINUAS HIPOTÉTICA (EN HOJA DE
CÁLCULO O CON PAQUETE ESTADÍSTICO)
En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S) es una
prueba no paramétrica que determina la bondad de ajuste de dos distribuciones de
probabilidad entre sí. Compara la función de distribución acumulada observada de
una variable con una distribución teórica determinada, que puede ser la normal, la
uniforme, la de Poisson o la exponencial.
Sirve para verificar o negar la hipótesis que un conjunto de observaciones proviene
de una distribución. La estadística D que se utiliza en esta prueba es una medida de
la diferencia máxima observada entre la distribución empírica y la teórica supuesta. D
es una variable aleatoria. Se utiliza esta prueba para verificar o negar que un conjunto
de números pseudoaleatorios tiene una distribución uniforme en el intervalo cerrado
[0,1].
Ejemplo 1:
En una investigación, consistente en medir la talla de 100 niños de 5 años, se desea
saber si las observaciones provienen de una población normal.
23
Elección de la prueba estadística.
El modelo experimental tiene una muestra y es factible un arreglo en el carácter
ordinal o en los rangos de las series de clases.
Planteamiento de la hipótesis.
Hipótesis alterna (Ha). Los valores observados de las frecuencias para cada clase
son diferentes de las frecuencias teóricas de una distribución normal.
Hipótesis nula (Ho). Las diferencias entre los valores observados y los teóricos de la
distribución normal se deben al azar.
Nivel de significación.
Para todo valor de probabilidad igual o menor que 0.05, se acepta Ha y se rechaza
Ho.
Zona de rechazo.
Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha.
Tabla de 100 niños. Los valores X + s son 99.2 ± 2.85.
Aplicación de la prueba estadística.
Primero se elaboran los cálculos de los valores teóricos esperados para la distribución
normal.
Inicialmente se determina el valor Z de los límites de cada clase en la serie, por
ejemplo: en la primera clase se determinan el límite inferior y el superior (90 y 93), y
en las subsecuentes sólo los límites superiores (97, 101, 105 y 109). Para cada valor
de Z, se localiza el área bajo la curva norma tipificada. (Véase: tabla de áreas bajo la
curva normal tipificada de 0 a 2).
Los cálculos de valores Z, son de la forma siguiente:
24
Y así sucesivamente.
Para cada valor Z, se localiza el área de la curva tipificada de la tabla de números
aleatorios. A partir de estos valores, se obtiene la diferencia entre los límites de clases
entre el superior y el inferior, por ejemplo: 0.4997 – 0.4793 = 0.020, 0.4793 – 0.2357
= 0.2436, 0.2357 – (-0.2794) = 0.5151, -0.2794 – (-0.4854) = 0.206 y -0.4854 – (-
0.4994) = 0.014.
Estos resultados de diferencias se multiplican por el tamaño de la muestra (100
niños), luego se obtienen las frecuencias teóricas y después se arreglan en
frecuencias acumuladas.
Cálculos de los valores teóricos.
Las frecuencias acumuladas teóricas y las observadas se arreglan en los rangos
correspondientes, como se muestra en la siguiente tabla, y posteriormente se aplica
la fórmula de Kolmogorov-Smirnov.
Cálculo estadístico D de Kolmogorov-Smirnov.
D = ft – fobs = – 0.036
25
La diferencia máxima D es igual a -0.049, valor que se compara con los valores
críticos de D en la prueba muestral de Kolmogorov-Smirnov y se obtiene la
probabilidad de la existencia de esa magnitud de acuerdo con la prueba de
Kolmogorov-Smirnov. El valor N es 100 y el mayor número de N en la tabla es 35, por
lo cual se aplica la fórmula al pie de la tabla:
Para la probabilidad de
Lo anterior quiere decir que para todo valor menor que el crítico para una probabilidad
de 0.05, la probabilidad correspondiente es mayor que 0.05, y todo valor mayor que
D al calculado tienen una probabilidad menor que 0.05, o sea, es inversamente
proporcional al crítico determinado o localizado en la tabla.
Decisión.
En virtud de lo anterior, el estadístico de Kolmogorov-Smirnov obtenido es menor que
el crítico y su probabilidad mayor que 0.05, por lo tanto, se acepta Ho y se rechaza
Ha.
Interpretación.
Las frecuencias observadas y las teóricas calculadas no difieren significativamente.
Por lo tanto, las observaciones tienen una distribución normal.
4.5.3. MUESTRAS GRANDES: PRUEBA DE KARL-PEARSON PARA
AJUSTE DE UNA DISTRIBUCIÓN DE PROBABILIDADES
HIPOTÉTICA, DISCRETA O CONTINUA (EN HOJA DE CÁLCULO O
CON PAQUETE ESTADÍSTICO)
La prueba chi-cuadrado, también llamada Ji cuadrado (Χ2), se encuentra dentro de
las pruebas pertenecientes a la estadística descriptiva, concretamente la estadística
descriptiva aplicada al estudio de dos variables. Por su parte, la estadística descriptiva
se centra en extraer información sobre la muestra. En cambio, la estadística
inferencial extrae información sobre la población.
El nombre de la prueba es propio de la distribución Chi-cuadrado de la probabilidad
en la que se basa. Karl Pearson desarrolló esta prueba en 1900.
La prueba chi-cuadrado es una de las más conocidas y utilizadas para analizar
variables nominales o cualitativas, es decir, para determinar la existencia o no de
26
independencia entre dos variables. Que dos variables sean independientes significa
que no tienen relación, y que por lo tanto una no depende de la otra, ni viceversa.
Así, con el estudio de la independencia, se origina también un método para verificar
si las frecuencias observadas en cada categoría son compatibles con la
independencia entre ambas variables.
Para evaluar la independencia entre las variables, se calculan los valores que
indicarían la independencia absoluta, lo que se denomina “frecuencias esperadas”,
comparándolos con las frecuencias de la muestra.
Como es habitual, la hipótesis nula (H0) indica que ambas variables son
independientes, mientras que la hipótesis alternativa (H1) indica que las variables
tienen algún grado de asociación o relación.
Así, como otras pruebas para el mismo fin, la prueba chi-cuadrado se utiliza para ver
el sentido de la correlación entre dos variables nominales o de un nivel superior (por
ejemplo, la podemos aplicar si queremos conocer si existe relación entre el sexo [ser
hombre o mujer] y la presencia de ansiedad [sí o no]).
Para determinar este tipo de relaciones, existe una tabla de frecuencias a consultar
(también para otras pruebas como por ejemplo el coeficiente Q de Yule).
Si las frecuencias empíricas y las frecuencias teóricas o esperadas coinciden,
entonces no hay relación entre las variables, es decir, éstas son independientes. En
cambio, sí coinciden, no son independientes (existe relación entre las variables, por
ejemplo, entre X e Y).
La prueba χ² de Pearson se considera una prueba no paramétrica que mide la
discrepancia entre una distribución observada y otra teórica (bondad de ajuste),
indicando en qué medida las diferencias existentes entre ambas, de haberlas, se
deben al azar en el contraste de hipótesis. También se utiliza para probar la
independencia de dos variables entre sí, mediante la presentación de los datos en
tablas de contingencia.
La fórmula que da el estadístico es la siguiente:
27
Cuanto mayor sea el valor de x2, menos verosímil es que la hipótesis nula (que asume
la igualdad entre ambas distribuciones) sea correcta. De la misma forma, cuanto más
se aproxima a cero el valor de chi-cuadrado, más ajustadas están ambas
distribuciones.
La distribución de probabilidad de una variable aleatoria es una función que asigna a
cada suceso definido sobre la variable la probabilidad de que dicho suceso ocurra.
28
Ejemplo de correlación de Pearson:
Datos:
Fórmulas para obtener la media (necesarias para obtener la varianza):
Realizar nuevas columnas y rellenar:
29
Obtener la media:
Fórmulas para obtener la varianza:
Realizar nuevas columnas y rellenar:
Obtener la varianza:
Obtener la desviación típica:
30
Fórmula para obtener la covarianza:
Realizar nuevas columnas y rellenar:
Obtener la covarianza:
Obtener el coeficiente de correlación de Pearson:
El coeficiente de correlación es de 0.91, muy cercano a 1, por lo tanto, la correlación
entre las variables X e Y es fuerte y directa.
31
4.5.4 OTRAS PRUEBAS: ANDERSON DARLING Y PRUEBA G
Anderson-Darling:
El estadístico Anderson-Darling mide qué tan bien siguen los datos una distribución
específica. Para un conjunto de datos y distribución en particular, mientras mejor se
ajuste la distribución a los datos, menor será este estadístico. Por ejemplo, usted
puede utilizar el estadístico de Anderson-Darling para determinar si los datos cumplen
el supuesto de normalidad para una prueba t.
Las hipótesis para la prueba de Anderson-Darling son:
• H0: Los datos siguen una distribución especificada.
• H1: Los datos no siguen una distribución especificada.
Utilice el valor p correspondiente (si está disponible) para probar si los datos
provienen de la distribución elegida. Si el valor p es menor que un nivel de
significancia elegido (por lo general 0.05 o 0.10), entonces rechace la hipótesis nula
de que los datos provienen de esa distribución. Minitab no siempre muestra un valor
p para la prueba de Anderson-Darling, porque este no existe matemáticamente para
ciertos casos.
También puede usar el estadístico de Anderson-Darling para comparar el ajuste de
varias distribuciones para determinar cuál es la mejor.
Sin embargo, para concluir que una distribución es la mejor, el estadístico de
Anderson-Darling debe ser sustancialmente menor que los demás. Cuando los
estadísticos están cercanos entre sí, se deben usar criterios adicionales, como las
gráficas de probabilidad, para elegir entre ellos.
Valor de P de distribuciones
32
Ejemplo de comparación de distribuciones
Estas gráficas de probabilidad son para los mismos datos. Tanto la distribución normal
como la distribución de Weibull de 3 parámetros ofrecen un ajuste adecuado a los
datos.
Minitab calcula el estadístico de Anderson-Darling usando la distancia al cuadrado
ponderada entre la línea ajustada de la gráfica de probabilidad (con base en la
distribución elegida y usando el método de estimación de máxima verosimilitud o las
estimaciones de mínimos cuadrados) y la función de paso no paramétrica. El cálculo
tiene mayor ponderación en las colas de la distribución.
Pruebas G:
Las pruebas G son pruebas de significación estadística de razón de verosimilitud o
de máxima verosimilitud que se utilizan cada vez más en situaciones en las que
anteriormente se recomendaban las pruebas de ji cuadrado. La fórmula general para
G es: dónde O> es el conteo observado en una celda, es el recuento esperado bajo
la hipótesis nula, denota el logaritmo natural, y la suma se toma sobre todas las celdas
no vacías. Además, el recuento total observado debe ser igual al recuento total
esperado: dónde es el número total de observaciones.
33
4.6 SIMULACIÓN DE LOS COMPORTAMIENTOS ALEATORIOS DEL
PROYECTO Y SU VERIFICACIÓN.
Simular el funcionamiento de distintos tipos de instalaciones o procesos. A la
instalación o proceso que se pretende estudiar se le denomina sistema y para poderlo
analizar se realiza una serie de supuestos sobre su funcionamiento. Estos supuestos,
que normalmente se expresan mediante relaciones matemáticas o relaciones lógicas,
constituyen un modelo del sistema. Este modelo se utiliza para comprender y prever
el comportamiento del sistema real. Si las relaciones matemáticas o lógicas que
comprende el modelo son sencillas, entonces será posible utilizar un procedimiento
analítico para obtener una solución o respuesta exacta sobre las características de
interés del sistema analizado. No obstante, si las relaciones son complejas, puede
ocurrir que no se pueda evaluar analíticamente el problema. En este caso, será
necesario acudir a la simulación del sistema, evaluando numéricamente el modelo y
analizando los datos obtenidos para estimarlas características de dicho sistema.
Sistemas, modelos y simulación
Un sistema se puede definir como un conjunto de elementos unidos por relaciones de
interacción o interdependencia. En el ámbito de los sistemas productivos estos
elementos normalmente tienen un objetivo común. Los elementos que forman parte
del sistema vienen condicionados por el objetivo del estudio que se pretende realizar,
ya que un sistema definido para un estudio determinado puede ser una parte de un
sistema más amplio definido para otro estudio particular. Por ejemplo, si se quiere
determinar cuál es el número más adecuado de operarios y máquinas en la sección
de mecanizado de una empresa que tiene una determinada cartera de pedidos, estos
elementos serán los que formen parte del sistema a analizar, mientras que, si lo que
se desea es estudiar la capacidad productiva de la empresa, los elementos
mencionados anteriormente sólo serán una parte del sistema. A ellos habrá que
añadir montaje, embalaje, almacenaje, etc.
Sé pueden realizar las siguientes definiciones:
• Atributo: propiedad de un elemento del sistema.
• Actividad: todo proceso que provoque un cambio en el sistema.
34
El estado del sistema en un instante de tiempo determinado se puede definir como la
descripción de todos los elementos, atributos y actividades en dicho instante. Por
ejemplo, el estado de una oficina bancaria en un instante se podría definir mediante
el número de cajeros en él, el número de clientes, el instante de llegada de cada
cliente y el tipo de operación que desea realizar cada uno. Este conjunto constituiría
las variables de estado del sistema.
Tipos de sistemas
Evidentemente, las características del sistema real que se desea estudiar van a
condicionar el tipo de simulación que se va a desarrollar. Por lo tanto, conviene hacer
una clasificación de los sistemas de acuerdo con los aspectos que van a condicionar
su análisis posterior. Así, es útil realizar una clasificación de los sistemas atendiendo
a tres aspectos fundamentales: Sistemas estáticos y sistemas dinámicos.
Sistemas estáticos y sistemas dinámicos.
Un sistema se considera estático cuando sus variables de estado no cambian a lo
largo del tiempo, es decir, cuando el tiempo no juega ningún papel en sus
propiedades. Por el contrario, en un sistema dinámico los valores que toman todas o
algunas de sus variables de acción evolucionan a lo largo del tiempo.
Sistemas deterministas y sistemas estocásticos. Si un sistema no tiene ningún
componente de carácter estocástico (es decir, aleatorio) se considera determinista.
En un sistema de una cierta complejidad puede ocurrir que existan simultáneamente
variables de estado continuas y discretas. En este caso, dependiendo de la
predominancia de una y otras y del objetivo del estudio que se pretende realizar, se
considerará el sistema como perteneciente a uno de los dos tipos de modelos para
estudiar un sistema, la forma más inmediata sería experimentar sobre él. Sin
embargo, esto puede ser desaconsejable, e incluso imposible, por diversos motivos.
Por otra parte, si el sistema modelado es similar a alguno ya existente, se puede
contrastar el funcionamiento del modelo con el del sistema real.
35
Ventajas de la simulación
Ya se ha comentado previamente que la simulación es una técnica cada vez más
utilizada en el estudio de sistemas complejos. Entre los argumentos a favor de la
utilización de la simulación se encuentran los siguientes:
• La mayoría de los sistemas complejos reales con elementos estocásticos no
se pueden describir con suficiente precisión mediante un modelo matemático
que se pueda resolver analíticamente. Por lo tanto, con frecuencia la
simulación es el único método posible de estudio de dichos sistemas.
• La simulación permite estimar el comportamiento de un sistema existente bajo
un conjunto previsto de condiciones operativas.
• Mediante la simulación se pueden comparar diseños alternativos (o políticas
de operación alternativas para un determinado diseño) para especificar cuál es
el que cumple de forma más adecuada con los objetivos formulados.
• En la simulación se puede tener un control mucho mejor sobre las condiciones
del experimento que si se realizase sobre el propio sistema.
• La simulación permite estudiar un sistema cuya evolución es muy dilatada en
el tiempo (por ejemplo, un sistema económico) en un periodo de tiempo
reducido. Alternativamente, también permite estudiar de forma detallada la
evolución de un sistema en un corto periodo de tiempo.
36
CONCLUSIÓN
La simulación se utiliza en una amplia variedad de empresas, para ayudar a la
gerencia a tomar decisiones. Casi todas las empresas tienen problemas de
planificación y la simulación puede ayudar a resolverlos. Se utiliza más
frecuentemente para ayudar a la gerencia en los casos en que el problema no se
presta a soluciones rutinarias.
Así pues, la simulación ayuda a la gerencia a tomar decisiones; ofrece un método
mediante el cual se pueden probar los planes propuestos, antes de llevarlos a cabo.
Por naturaleza, la simulación ayuda a la gerencia a determinar los resultados de las
preguntas del tipo: ¿que pasara si...? Como subproducto importante de la simulación,
se adquiere un conocimiento de la estructura del negocio. A través del análisis
necesario para preparar el modelo se puede descubrir un gran número de
interrelaciones inadvertidas hasta el momento. Además, pueden ponerse de
manifiesto los puntos débiles del negocio en la estructura de la empresa. Por lo tanto,
el propio proceso de representación mediante modelos resulta frecuentemente
beneficioso para la gerencia.
Un modelo es una representación de una situación real, y se utiliza a menudo en los
procesos de toma de decisiones. La representación puede ser mental. O puede
adoptar otras formas.
37
FUENTES CONSULTADAS
• Píldoras matemáticas. (2019, 17 enero). 09 Coeficiente de correlación de
Pearson - ejercicio [Vídeo]. YouTube.
[Link]
• Perez, H. B. U. (s. f.). MUESTRAS GRANDES. Scribd.
[Link]
• Pablo. (2020, 10 junio). 4.4.3 intervalo de confianza.
[Link]
[Link]
• Guest. (s. f.). 4,4.1. . ..DISEÑO DE LA CALIDAD DE SIMULACION -
[Link]. [Link]. [Link]
[Link]
• Pablo. (2020a, junio 10). 4.4.1. Establecimiento de la precisión.
[Link]
[Link]
• Completo, V. mi P. (n.d.). simulación. [Link]. Retrieved May 1, 2024,
from [Link]
[Link]
• Guest. (2023, April 15). Muestras definitivas. [Link].
[Link]
• U4.5 MUESTRAS DEFINITIVAS Simulacion. (n.d.). Scribd. Retrieved May 1,
2024, from [Link]
DEFINITIVAS-Simulacion
• Guest. (2020, marzo 27). Unidad 4 completa simulacion. [Link].
[Link]
• Guest. (2020a, marzo 27). 4,4.1....Diseño DE la calidad DE simulacion.
[Link]. [Link]
[Link]
• 4.2 Características estimadores. (s/f). [Link]. Recuperado el 1 de mayo
de 2024, de
[Link]
38