.
Par 1
Las diferencias de los recursos entre los softwares de simulación
QUÉ SIMULAN
Comenzando con el DES, conforme comentado anteriormente, los recursos de software DES
son usados para simular eventos, necesidades y requisitos discretos. Las simulaciones
continuas son generalmente aplicadas a procesos continuos en flujos, en cuantos el ABM es
aplicado a agentes y sistemas autónomos.
ETAPA DE TIEMPO
Para el software DES, o intervalo de tiempo muda de acuerdo a la ocurrencia de eventos
individuales. Para software de simulación continua, los intervalos de tiempo permanecen
básicamente inalterados. Y en softwares de simulación ABM, las etapas de tiempo mudan de
acuerdo con las mudanzas en las interacciones del agente autónomo.
FILA
El software DES aplica diversas técnicas os sistemas para administrar filas. Eso incluye el uso de
una Esto incluye el uso de un enfoque de “primero en entrar, primero en salir” (FIFO) o el
enfoque de “último en entrar, primero en salir” (LIFO) para administrar las colas. El software
de simulación continua usa apenas el sistema de FIFO para administrar filas. Ya para el ABM, el
administrados de filas es un poco diferente, pues presenta un sistema sobre a perspectiva del
agente. Per un sistema FIFO o LIFO puede ser usado para administrar fialas en simulaciones
ABM.
Diferencias en la aplicación de cada modelo de simulación
SOFTWARE DE SIMULACIÓN DE EVENTOS DISCRETOS
La naturaleza discreta de esta técnica se vuelve una excelente decisión para simulaciones
industriales donde ocurren eventos. Eso incluye la industria de manufactura, empresas de
producción farmacéutica, fabricas e industrias con sistemas logísticos funcionales.
Aquí, la capacidad de simular la llegada y salida de entidades o problemas de filas proveen un
nivel de percepción de las operaciones industriales de una forma que otros métodos no
pueden.
Otras ventajas del aplicativo DES incluyen su uso como herramienta de entrenamiento y
validación en la industria 4.0. Además de su capacidad para impulsar las iniciativas de
transformación digital de las empresas.
SOFTWARE DE SIMULACIÓN CONTINUA
Las simulaciones continuas se utilizan generalmente en campos de ingeniería avanzada, donde
se diseñan motores de simulación. Esto incluye la industria de la aviación para diseñar
simuladores de vuelo y programas de piloto automático. También se utiliza en el diseño de
motores de juegos para videojuegos, como la Nintendo Wii.
Las simulaciones continuas también se utilizan para mejorar los sistemas de inteligencia
artificial debido a sus capacidades analíticas teóricas.
SOFTWARE DE SIMULACIÓN BASADO EN AGENTES
Los tres conceptos que definen la aplicación de ABM son su flexibilidad, su capacidad para
capturar fenómenos emergentes y su capacidad para definir sistemas. Con estas habilidades
vienen ciertas ventajas, como la capacidad de integrar simulaciones ABM en entornos DES o de
simulación continua.
Su capacidad para simular interacciones entre agentes autónomos también lo convierte en una
excelente herramienta para comprender el comportamiento del taller. Por ejemplo, se puede
utilizar para analizar la causa del tráfico en el taller en una instalación donde interactúan
humanos y máquinas autónomas. Aquí, su enfoque individualista de la simulación proporciona
diferentes perspectivas para los agentes activos, explicando la causa de los fenómenos, como
la congestión inesperada dentro de un sistema.
El software ABM se utiliza activamente para monitorear los procesos de flujo, como el tráfico y
la gestión del flujo de clientes en tiendas físicas, parques y centros recreativos. Un ejemplo es
su uso en una tienda Macy’s. En este ejemplo, se utilizó ABM para estimar la distribución de
los vendedores en sus instalaciones y cómo interactúan con los clientes para mejorar sus
operaciones.
En resumen
Aunque las simulaciones DES, CS y ABM aplican diferentes enfoques a la simulación, los
resultados que producen optimizan los esfuerzos humanos e industriales de diferentes
maneras. Estas formas incluyen planificación e implementación, mejora de la relación con el
cliente, capacitación del equipo, desarrollo de estrategias y diseño
Par 2
Un número aleatorio es un resultado de una combinación variable al azar especificada por una
función de distribución. Cuando no se especifica ninguna distribución, se presupone que se
utiliza la distribución uniforme continua en el intervalo [0,1).
Ambos 1
Planeación para la elaboración del modelo de simulación y su experimentación.
Formulación del problema. …
Colocación de objetivos y el plan del proyecto global. …
Conceptualización del modelo. …
Recolección y procesamiento de datos. …
Construcción del modelo. …
Verificación. …
Validación. …
Diseño de experimentos
Consiste en estudiar el contexto del problema, identificar los objetivos del proyecto,
especificar los índices de medición de la efectividad del sistema, establecer los objetivos
específicos del modelamiento y definir el sistema que se va a modelar un sistema de
simulación.
· Formulación del Modelo
Una vez definidos con exactitud los resultados que se espera obtener del estudio, se define y
construye el modelo con el cual se obtendrán los resultados deseados. En la formulación del
modelo es necesario definir todas las variables que forman parte de él, sus relaciones lógicas y
los diagramas de flujo que describan en forma completa el modelo.
· Colección de Datos
Es importante que se definan con claridad y exactitud los datos que el modelo va a requerir
para producir los resultados deseados.
· Implementan del modelo en la computadora
Con el modelo definido, el siguiente paso es decidir qué lenguaje de programación (como
Fortran, Algol, Lisp, etc.) o qué paquete de software se va a utilizar para procesar el modelo en
la computadora y obtener los resultados deseados.
· Verificación
El proceso de verificación consiste en comprobar que el modelo simulado cumple con los
requisitos de diseño para los que se elaboró. Se trata de evaluar que el modelo se comporta de
acuerdo a su diseño.
· Validación del Sistema
A través de esta etapa se valoran las diferencias entre el funcionamiento del simulador y el
sistema real que se está tratando de simular. Las formas más comunes de validar un modelo
son:
La opinión de expertos sobre los resultados de la simulación.
La exactitud con que se predicen datos históricos.
La exactitud en la predicción del futuro.
La comprobación de falla del modelo de simulación al utilizar datos que hacen fallar al sistema
real.
La aceptación y confianza en el modelo de la persona que hará uso de los resultados que arroje
el experimento de simulación.
· Interpretación
En esta etapa del estudio, se interpretan los resultados que arroja la simulación y con base a
esto se toma una decisión. Es obvio que los resultados que se obtienen de un estudio de
simulación colabora a soportar decisiones del tipo semi-estructurado.
· Experimentación
La experimentación con el modelo se realiza después que este haya sido validado. La
experimentación consiste en comprobar los datos generados como deseados y en realizar un
análisis de sensibilidad de los índices requeridos.
· Documentación
Dos tipos de documentación son requeridos para hacer un mejor uso del modelo de
simulación. La primera se refiere a la documentación del tipo técnico y la segunda se refiere al
manual del usuario, con el cual se facilita la interacción y el uso del modelo desarrollado
Par 3
VARIABLES ALEATORIAS EN SIMULACIÓN
Es aquella variable que puede tener asignado un valor (no previsible) de un determinado
conjunto finito (variable aleatoria discreta) o infinito (variable aleatoria continua) de posibles
valores. Es una función que asigna un número a cada posible resultado de un experimento
(espacio de muestreo). Aunque la secuencia exacta de valores que serán asignados a una
variable aleatoria no puede ser prevista, sí que es posible conocer el rango de valores en los
que puede variar, así como la probabilidad de tener asignado un cierto valor.
Un proceso estocástico evoluciona en el tiempo y/o espacio e involucra a una variable
aleatoria, de tal modo que el comportamiento del proceso no puede preverse con exactitud.
Estos procesos se utilizan para representar aquellas actividades cuyos efectos varían
aleatoriamente en distintas salidas y los resultados generados sirven para obtener
estimaciones de las variables que caracterizan el comportamiento real del sistema.
En simulación, los valores que puede tomar una variable aleatoria, como la duración de una
actividad, o quizá el tiempo entre arribos de las entidades al sistema, son representados por
una Distribución de Probabilidad. Para generar un valor individual de la variable aleatoria, un
número aleatorio (creado mediante un generador de números aleatorios) es colocado en una
rutina o ecuación de transformación, convirtiendo el número aleatorio en un valor que
conforma una distribución de probabilidad y que re presenta a la variable aleatoria.
El comportamiento aleatorio en un sistema es expresado en un modelo de simulación, ya sea
utilizando expresiones de probabilidad (véase el ejemplo anterior) o por la especificación de
distribuciones de probabilidad. Esto depende de si se trata de un hecho particular de decisión
mediante la comparación con un número aleatorio generado, o si se trata de la probabilidad
de un valor asociado a una variable aleatoria, como la duración de una actividad, o quizá la
cantidad de productos que compra un cliente, etcétera.
Ambos 2
La simulación Monte Carlo es una técnica matemática Computarizada que permite tener en cuenta
el riesgo en análisis cuantitativos y tomas de decisiones. Esta técnica es utilizada por
profesionales de campos tan dispares como los de finanzas, gestión de proyectos, energía,
manufacturación, ingeniería, investigación y desarrollo, seguros, petróleo y gas, transporte y
medio ambiente.
La simulación Monte Carlo ofrece a la persona responsable de tomar las decisiones una serie
de posibles resultados, así como la probabilidad de que se produzcan según las medidas
tomadas. Muestra las posibilidades extremas —los resultados de tomar la medida más
arriesgada y la más conservadora— así como todas las posibles consecuencias de las
decisiones intermedias.
Los científicos que trabajaron con la bomba atómica utilizaron esta técnica por primera; y le
dieron el nombre de Monte Carlo, la ciudad turística de Mónaco conocida por sus casinos.
Desde su introducción durante la Segunda Guerra Mundial, la simulación Monte Carlo se ha
utilizado para modelar diferentes sistemas físicos y conceptuales.
Cómo funciona la simulación Monte Carlo
La simulación Monte Carlo realiza el análisis de riesgo con la creación de modelos de posibles
resultados mediante la sustitución de un rango de valores —una distribución de probabilidad
— para cualquier factor con incertidumbre inherente. Luego, calcula los resultados una y otra
vez, cada vez usando un grupo diferente de valores aleatorios de las funciones de
probabilidad. Dependiendo del número de incertidumbres y de los rangos especificados, para
completar una simulación Monte Carlo puede ser necesario realizar miles o decenas de miles
de recálculos. La simulación Monte Carlo produce distribuciones de valores de los resultados
posibles.
El análisis de riesgo se puede realizar cualitativa y cuantitativamente. El análisis de riesgo
cualitativo generalmente incluye la evaluación instintiva o “por corazonada” de una situación,
y se caracteriza por afirmaciones como “Eso parece muy arriesgado” o “Probablemente
obtendremos buenos resultados”. El análisis de riesgo cuantitativo trata de asignar valores
numéricos a los riesgos, utilizando datos empíricos o cuantificando evaluaciones cualitativas.
Vamos a concentrarnos en el análisis de riesgo cuantitativo.
Mediante el uso de distribuciones de probabilidad, las variables pueden generar diferentes
probabilidades de que se produzcan diferentes resultados. Las distribuciones de probabilidad
son una forma mucho más realista de describir la incertidumbre en las variables de un análisis
de riesgo. Las distribuciones de probabilidad más comunes son:
Normal – O “curva de campana”. El usuario simplemente define la media o valor esperado y
una desviación estándar para describir la variación con respecto a la media. Los valores
intermedios cercanos a la media tienen mayor probabilidad de producirse. Es una distribución
simétrica y describe muchos fenómenos naturales, como puede ser la estatura de una
población. Ejemplos de variables que se pueden describir con distribuciones normales son los
índices de inflación y los precios de la energía.
Lognormal – Los valores muestran una clara desviación; no son simétricos como en la
distribución normal. Se utiliza para representar valores que no bajan por debajo del cero, pero
tienen un potencial positivo ilimitado. Ejemplos de variables descritas por la distribución
lognormal son los valores de las propiedades inmobiliarias y bienes raíces, los precios de las
acciones de bolsa y las reservas de petróleo.
Uniform – Todos los valores tienen las mismas probabilidades de producirse; el usuario sólo
tiene que definir el mínimo y el máximo. Ejemplos de variables que se distribuyen de forma
uniforme son los costos de manufacturación o los ingresos por las ventas futuras de un nuevo
producto.
Triangular – El usuario define los valores mínimo, más probable y máximo. Los valores
situados alrededor del valor más probable tienen más probabilidades de producirse. Las
variables que se pueden describir con una distribución triangular son el historial de ventas
pasadas por unidad de tiempo y los niveles de inventario.
PERT – El usuario define los valores mínimo, más probable y máximo, como en la distribución
triangular. Los valores situados alrededor del más probable tienen más probabilidades de
producirse. Sin embargo, los valores situados entre el más probable y los extremos tienen más
probabilidades de producirse que en la distribución triangular; es decir, los extremos no tienen
tanto peso. Un ejemplo de uso de la distribución PERT es la descripción de la duración de una
tarea en un modelo de gestión de un proyecto.
Discrete – El usuario define los valores específicos que pueden ocurrir y la probabilidad de
cada uno. Un ejemplo podría ser los resultados de una demanda legal: 20% de posibilidades
de obtener un veredicto positivo, 30% de posibilidades de obtener un veredicto negativo, 40%
de posibilidades de llegar a un acuerdo, y 10% de posibilidades de que se repita el juicio.
Durante una simulación Monte Carlo, los valores se muestrean aleatoriamente a partir de las
distribuciones de probabilidad introducidas. Cada grupo de muestras se denomina iteración, y
el resultado correspondiente de esa muestra queda registrado. La simulación Monte
Ambos 3
Las pruebas de bondad de ajuste e independencia son ampliamente utilizadas en diversas
áreas de la ciencia para llevar a cabo análisis de datos categóricos. Una prueba de bondad de
ajuste permite docimar la hipótesis de que una variable aleatoria sigue cierta distribución de
probabilidad y se utiliza en situaciones donde se requiere comparar una distribución
observada con una teórica o hipotética, compararla con datos históricos o con la distribución
conocida de otra población (1). Por otra parte, una prueba de independencia permite
determinar si existe asociación estadística entre dos variables categóricas.
Las pruebas más utilizadas para estudiar la independencia y la bondad de ajuste son las
chicuadrado de Pearson, debido a su fácil aplicación y a que se encuentran en todos los
paquetes estadísticos. Estas pruebas asumen que todas las observaciones son independientes
y que están igualmente distribuidas, supuestos que sólo se satisfacen para un muestreo
aleatorio simple con reposición y se cumplen aproximadamente en una muestra aleatoria
simple sin reposición para una fracción de muestreo pequeña (2).
Está bien documentado en la literatura, aunque no es conocido en la práctica, que las pruebas
chi-cuadrado de Pearson dan resultados extremadamente erróneos cuando se aplican en
datos obtenidos mediante diseños muestrales complejos, donde no se cumplen los supuestos,
tales como el muestreo sistemático, estratificado, por conglomerados, probabilidad variable o
cualquier otro muestreo probabilístico diferente al muestreo aleatorio simple (3, 4). Las
implicaciones por el reporte de resultados falsos pueden ser muy costosas, dependiendo de la
naturaleza del estudio que se esté realizando.
Es una práctica común ignorar la complejidad del diseño muestral y proceder como si las
pruebas chi-cuadrado de Pearson se comportaran de la misma forma que lo hacen bajo un
muestreo aleatorio simple (5). De acuerdo a este criterio, se emplea un paquete estadístico
estándar para aplicar las pruebas chi-cuadrado, lo que conduce a niveles de significación
bastante altos (6).
En años recientes se ha realizado una serie de investigaciones para desarrollar nuevos
métodos que tomen en cuenta la complejidad de la muestra. Algunos de estos métodos son la
prueba de Wald (7), los ajustes a las pruebas chi-cuadrado de Pearson propuestos por Fay (3) y
las pruebas desarrolladas por Rao y Scott (8-10). Otros autores también han sugerido pruebas
alternativas y han estudiado el error tipo I y la potencia de las pruebas chi-cuadrado de
Pearson bajo diseños muestrales que violan los supuestos, tales como el estratificado y por
conglomerados (11, 14).
El presente trabajo estudia el comportamiento de las pruebas chi-cuadrado de Pearson de
bondad de ajuste e independencia, cuando se aplican en datos obtenidos mediante el
muestreo de parcelas de tamaño variable, también conocido como el muestreo de Bitterlich o
muestreo puntual. En este diseño muestral se viola el supuesto de independencia de las
observaciones, ya que una vez que se elige el punto donde se aplica el muestreo, los árboles
forman conglomerados y, por tanto, están presentes las correlaciones espaciales. Además, no
se satisface el supuesto de igual probabilidad de selección para todas las unidades muestrales,
pues los árboles son seleccionados con probabilidad proporcional a su área basal.
Para determinar si la violación de los supuestos afecta la validez de las pruebas de bondad de
ajuste e independencia de Pearson, la investigación se fundamenta en la estimación del error
tipo I de estas pruebas, aplicadas en datos obtenidos mediante un muestreo de parcelas de
tamaño variable. El error tipo I se define como la probabilidad de rechazar la hipótesis nula
siendo verdadera. También se le conoce como nivel de significación (), y es fijado por el
investigador. En este trabajo se estableció un a igual a 0,05, el cual es comparado con el error
tipo I estimado a partir de un proceso de simulación ().
Igualmente, se evalúa el error tipo I de algunas pruebas de bondad de ajuste e independencia
que toman en cuenta el diseño muestral; estas son la prueba chi-cuadrado de Pearson
ponderada por las probabilidades de inclusión, la prueba de Wald y las pruebas de Rao-Scott
con corrección de primer y segundo orden.
Los resultados de este trabajo proporcionan a los investigadores forestales una idea acerca de
cuáles pruebas de bondad de ajuste e independencia deben o no usarse, cuando se utiliza el
muestreo con parcelas de tamaño variable, para evitar llegar a conclusiones erróneas.
Ambos 4