Basándome en la información proporcionada en los documentos, a continuación, te presento un
resumen completo de las definiciones y puntos importantes sobre la simulación:
Introducción a la Simulación
La simulación es una técnica basada en la modelación para realizar estudios piloto.
Se ha beneficiado de los avances en el área de la computación, permitiendo obtener
resultados rápidos y a un costo relativamente bajo.
Actualmente, hay gran cantidad de software de simulación disponible para tomar
decisiones en diversos temas, como administración de inventario, cadena de suministro,
sistemas de manufactura, Six Sigma y capacitación. Este software ofrece gran capacidad
de análisis, animaciones (2D y 3D), y herramientas estadísticas para un manejo eficiente
de la información y una mejor presentación e interpretación.
La simulación engloba soluciones para muchos propósitos diferentes, como simular
efectos físicos en un modelo a escala o representar procesos de manufactura para
revisarlos sin desperdiciar material o poner en riesgo maquinaria.
Por lo tanto, la simulación se refiere a un gran conjunto de métodos y aplicaciones que
buscan imitar el comportamiento de sistemas reales, generalmente mediante una
computadora con software apropiado.
Tipos de Modelos de Simulación Existen distintas formas de clasificar los modelos de
simulación:
Modelos Físicos vs. Modelos Matemáticos: Como el modelo de avión a escala (físico) o
los modelos de simulación de eventos discretos (matemático).
Modelos Continuos vs. Modelos Discretos:
o Continuos: Las relaciones entre variables se definen por ecuaciones diferenciales,
permitiendo conocer el comportamiento en el tiempo (ej: transferencia de calor,
flujo de material en tubería, nivel de líquido en tanque).
o Discretos: El comportamiento se representa mediante ecuaciones evaluadas en un
punto determinado (ej: número de personas que llegan a un banco, simulado con
ecuaciones ligadas a distribuciones de probabilidad).
Modelos Dinámicos vs. Modelos Estáticos:
o Dinámicos: El estado del sistema cambia respecto al tiempo (ej: número de
personas en una fila).
o Estáticos: Representan un resultado bajo un conjunto determinado de condiciones
(ej: lanzamiento de un dado, también conocido como simulación de Monte Carlo).
Modelos Determinísticos vs. Modelos Probabilísticos (Estocásticos):
o Determinísticos: Relaciones constantes entre cambios de variables (ej: cada caja
añade 5 productos al inventario).
o Probabilísticos/Estocásticos: Involucran distribuciones de probabilidad (ej: cajas
con 3 o 4 productos, inventario cambia según piezas por caja).
Los modelos de simulación de eventos discretos que se abordan principalmente se
clasifican como matemáticos, discretos, dinámicos y pueden incluir variables
determinísticas y probabilísticas. Consisten en relacionar eventos que cambian el estado
del sistema usando distribuciones de probabilidad y lógica del problema.
Conceptos Clave de la Simulación de Eventos Discretos
Simulación de eventos discretos: Conjunto de relaciones lógicas, matemáticas y
probabilísticas que integran el comportamiento de un sistema cuando ocurre un evento
determinado. Su objetivo es comprender, analizar y mejorar las condiciones de operación
del sistema.
De esta definición se desprenden otros conceptos importantes:
o Sistema: Conjunto de elementos interrelacionados para funcionar como un todo,
con una frontera clara (ej: sistema de atención a clientes en un banco).
o Modelo: Abstracción de la realidad que ayuda a entender su
composición/funcionamiento. Representación para entender la realidad y
modificarla. Los modelos formales se basan en reglas y son transmisibles.
o Evento: Un cambio en el estado actual del sistema (ej: entrada/salida de una
entidad, fin de un proceso, interrupción de operación). Se clasifican en eventos
actuales (sucediendo ahora) y eventos futuros (cambios programados). El estado
del sistema cambia con cada evento.
o Entidad: Representación de flujos de entrada/salida, el elemento que causa
cambio de estado al entrar al sistema (ej: clientes, piezas, embarques).
o Estado del sistema: La condición del sistema en un momento dado, como una
fotografía. Se compone de variables puntuales (número de piezas) y
acumuladas/promedio (tiempo promedio de permanencia).
o Localizaciones: Lugares donde las entidades pueden detenerse (almacenes,
máquinas, estaciones).
o Recursos: Dispositivos diferentes a las localizaciones, necesarios para
operaciones (montacargas, operarios, herramientas).
o Atributos: Características de una entidad (color, peso, tamaño de una pieza).
Útiles para diferenciar entidades.
o Variables: Condiciones cuyos valores se crean/modifican por ecuaciones y lógica
(costo promedio, número de unidades). Pueden ser continuas o discretas. Útiles
para conteos y características de operación.
o Reloj de la simulación: Contador de tiempo de la simulación. Se relaciona con la
tabla de eventos futuros. Puede ser absoluto (tiempo total) o relativo (tiempo
entre eventos).
Réplica o corrida: Ejecutar el modelo una vez. Son necesarias múltiples réplicas para
obtener estadísticas confiables y un mejor rango del valor de la variable bajo diferentes
escenarios, debido a la variabilidad de los números pseudoaleatorios.
Estado Transitorio vs. Estado Estable:
o Estado Transitorio: Inicio de la simulación, mucha variación en los valores
promedio. Conclusiones basadas en este estado son arriesgadas.
o Estado Estable: Valores de las variables se vuelven muy estables. Decisiones
basadas en este estado son más confiables. No todas las variables alcanzan este
estado al mismo tiempo. Es responsabilidad del analista verificar que las variables
clave estén en estado estable.
Ventajas de la Simulación
Permite conocer el impacto de cambios en procesos sin hacerlos en la realidad [30a].
Mejora el conocimiento del proceso al permitir ver el comportamiento del modelo bajo
diferentes escenarios [30b, 411].
Puede usarse como medio de capacitación [30c, 411].
Es más económico realizar estudios de simulación que hacer muchos cambios reales
[30d, 411].
Permite probar varios escenarios para encontrar mejores condiciones de trabajo [31e].
Ayuda a generar buenas soluciones para problemas complejos [31f].
Los paquetes de software son más sencillos [31g].
Las herramientas de animación permiten visualizar el comportamiento de procesos
mejorados [31h].
Permite capturar interacciones complejas y modelar incertidumbre.
Puede experimentar sistemáticamente con nuevos diseños o reglas.
Puede generar datos para analizar, describir y visualizar interacciones, resultados y
sensibilidades.
Permite responder preguntas del tipo "¿qué pasaría si...?".
Desventajas de la Simulación
No es una herramienta de optimización, aunque algunos paquetes ayuden a encontrar el
mejor escenario [32a, 38, 427].
Puede ser costosa para problemas simples con soluciones analíticas disponibles [32b,
411].
Requiere tiempo considerable (meses) para un buen estudio [32c, 411].
Requiere que el analista domine el software y tenga sólidos conocimientos de estadística
[33d].
Clientes pueden tener falsas expectativas, asociándola con videojuegos o una bola de
cristal [33e].
La construcción de modelos es tanto arte como ciencia, la calidad depende del modelo y
la habilidad del modelador.
Los resultados pueden ser difíciles de interpretar.
Puede ser muy consumidor de tiempo y caro; no usar si hay métodos analíticos más
rápidos/exactos.
Elementos Clave para el Éxito (Evitando Problemas)
Tamaño Insuficiente de la Corrida: No garantizar que las variables aleatorias de
respuesta alcancen un estado estable simultáneamente.
Variable(s) de Respuesta Mal Definida(s): Seleccionar una variable inapropiada impide
tomar decisiones con impacto.
Errores al Establecer Relaciones entre Variables Aleatorias: Olvidar o minimizar
relaciones lógicas entre variables puede afectar la representación de la realidad.
Errores al Determinar el Tipo de Distribución: Usar distribuciones inadecuadas o
simplificar excesivamente afecta los resultados.
Falta de Análisis Estadístico de Resultados: Asumir que es optimización, no realizar
varias corridas, o no usar intervalos de confianza para comparar escenarios. Incrementar
tamaño de corrida o número de réplicas puede mejorar conclusiones.
Uso Incorrecto de la Información Recopilada: Usar información no depurada o
reorganizada para los parámetros afecta la precisión.
Falta o Exceso de Detalle en el Modelo: Simplificar demasiado ("caja negra") omite el
impacto de subprocesos; detallar demasiado incrementa tiempo y costo. El analista debe
sugerir niveles de detalle resaltando alcances y limitaciones.
Otros problemas comunes incluyen: objetivos mal definidos, falta de comunicación con
interesados, tratar el estudio como solo matemático/programático, no considerar todas las
fuentes de aleatoriedad, sacar conclusiones de una sola corrida, usar estadísticas de salida
como respuestas "verdaderas", usar medidas incorrectas para evaluar el sistema.
Pasos para Realizar un Estudio de Simulación Un estudio típico sigue una serie de
actividades:
1. Definición del sistema bajo estudio: Conocer el sistema, establecer supuestos, definir
variables de decisión, interacciones, alcances y limitaciones. Crear un modelo conceptual
o mapa mental incluyendo fronteras, elementos, flujos y variables de interés.
2. Generación del modelo de simulación base: Traducir el modelo conceptual a un
lenguaje de simulación, incluir interrelaciones de subsistemas. No necesita ser muy
detallado inicialmente, se añaden variables aleatorias conforme se obtiene más
información. Se requiere ciencia y arte.
3. Recolección y análisis de datos: Paralelo a la generación del modelo base. Establecer
qué información es útil para determinar distribuciones. Depurar y reorganizar datos. Si no
hay datos o no son confiables, realizar un estudio estadístico del comportamiento de la
variable.
4. Generación del modelo preliminar: Integrar datos analizados, supuestos y demás
información para crear un modelo cercano a la realidad. Estimar rangos o usar valores
constantes si no hay datos históricos. El modelo está listo para verificación.
5. Verificación del modelo: Proceso para comprobar la propiedad de la programación del
modelo, asegurando que parámetros y lógica funcionen correctamente. Comparar con
supuestos actuales.
6. Validación del modelo: Comparar el modelo verificado con la realidad usando
información de entrada real. Observar comportamiento y analizar resultados. Si se mejora
un proceso existente, validar contra condiciones actuales. Si es un nuevo proceso, validar
que el comportamiento sea congruente con expectativas de expertos.
7. Generación del modelo final: Una vez validado, el modelo está listo para simular y
estudiar el comportamiento del proceso. Este es el modelo raíz para comparar escenarios.
8. Determinación de los escenarios para el análisis: Acordar escenarios con el cliente (ej:
pesimista, optimista, intermedio). Considerar múltiples variables de respuesta. El diseño
de experimentos puede generar muchas réplicas y aumentar costo/tiempo. Herramientas
de software pueden ayudar a gestionar esto. El analista puede sugerir escenarios clave.
9. Análisis de sensibilidad: Realizar pruebas estadísticas para comparar escenarios.
Comparar intervalos de confianza de las variables de respuesta. Si se traslapan, no se
puede decir estadísticamente que un resultado es mejor que otro. Más réplicas o mayor
tiempo de simulación pueden acortar intervalos y ayudar a diferenciar soluciones.
10. Documentación del modelo, sugerencias y conclusiones: Documentar supuestos,
distribuciones, alcances, limitaciones, consideraciones de programación. Incluir
sugerencias y conclusiones del proyecto para reportes ejecutivos.
Estos pasos pueden agruparse en tres grandes fases: Diseño del modelo, Construcción y
Experimentación.
Números Pseudoaleatorios
Son esenciales para simular la variabilidad en los eventos.
No son realmente aleatorios, sino que se comportan de manera muy similar a un
conjunto de números totalmente aleatorios, generados por algoritmos determinísticos.
Se requieren en el intervalo (0,1), referidos como rᵢ. Una secuencia rᵢ = {r₁, r₂, ..., r𝚗}
contiene "n" números diferentes; "n" es el periodo o ciclo de vida del generador.
Se necesitan conjuntos suficientemente grandes de rᵢ, con periodos de vida extensos (ej: n
= 2³¹ o mayor).
Los rᵢ se usan para generar el comportamiento de variables aleatorias.
Deben ser sometidos a pruebas para verificar si son independientes y uniformes.
Deben seguir una distribución uniforme continua entre 0 y 1.
Diseñar algoritmos que generen rᵢ con un periodo de vida grande y que pasen las pruebas
es difícil. Problemas comunes incluyen: no estar distribuidos uniformemente, ser
discretos en lugar de continuos, media o varianza muy alta o baja, o mostrar
correlación/tendencias.
Generación de Números Pseudoaleatorios Se clasifican en algoritmos no congruenciales y
congruenciales.
No Congruenciales:
o Algoritmo de Cuadrados Medios: Requiere una semilla con D dígitos, se eleva
al cuadrado, se toman los D dígitos centrales para r₁, y se repite con el nuevo
número. Tiende a generar periodos de vida pequeños y puede degenerar.
o Algoritmo de Productos Medios: Requiere dos semillas con D dígitos, se
multiplican, se toman los D dígitos centrales para r₁, se elimina una semilla, se
multiplica la restante por los D dígitos centrales obtenidos, y se repite eliminando
el número más antiguo.
o Algoritmo de Multiplicador Constante: Similar al de productos medios, usa una
semilla y una constante con D dígitos, se multiplican, se toman los D dígitos
centrales, y se repite multiplicando la constante por los dígitos centrales
obtenidos.
Congruenciales: Generan una secuencia de enteros usando una ecuación recursiva y
luego se transforman a (0,1).
o Algoritmo Congruencial Lineal: Xᵢ₊₁ = (aXᵢ + c) mod(m). Parámetros X₀, a, c,
m deben cumplir ciertas condiciones para alcanzar el periodo máximo N = m.
o Algoritmo Congruencial Multiplicativo: Surge del lineal cuando c = 0. Xᵢ₊₁ =
(aXᵢ) mod(m). Parámetros X₀, a, m deben cumplir ciertas condiciones para
alcanzar el periodo máximo N = m/4 si m=2ᵍ y a=3+8k o 5+8k, X₀ impar.
o Algoritmo Congruencial Aditivo: Xᵢ₊₁ = (Xᵢ + Xᵢ₋n) mod(m). Requiere una
secuencia previa de n números.
o Algoritmos Congruenciales No Lineales:
Congruencial Cuadrático: Xᵢ₊₁ = (aXᵢ² + bXᵢ + c) mod(m). Parámetros
m, a, b, c deben cumplir condiciones para alcanzar periodo N = m si m=2ᵍ.
Algoritmo de Blum, Blum y Shub: Caso especial del cuadrático con a=1,
b=0, c=0. Xᵢ₊₁ = (Xᵢ²) mod(m).
Propiedades y Pruebas Estadísticas de Números Pseudoaleatorios
Propiedades clave:
o Media: Debe ser 0.5 para una distribución uniforme entre 0 y 1.
o Varianza: Debe ser 1/12 para una distribución uniforme entre 0 y 1.
o Independencia: Los números no deben estar correlacionados.
o Uniformidad: Deben dispersarse de manera uniforme en el intervalo (0,1).
Pruebas estadísticas básicas para validar si un conjunto rᵢ es apto para simulación:
o Prueba de Medias: Comprueba si el promedio de los números es 0.5. Usa un
estadístico T y límites de aceptación calculados con z-score.
o Prueba de Varianza: Comprueba si la varianza de los números es 1/12. Usa un
estadístico de varianza muestral V(r) y límites de aceptación calculados con Chi-
cuadrada.
o Pruebas de Uniformidad:
Prueba Chi-cuadrada: Divide el intervalo (0,1) en subintervalos,
clasifica los números en ellos (frecuencia observada Oᵢ), calcula
frecuencia esperada (Eᵢ=n/m), y compara Oᵢ y Eᵢ usando un estadístico
Chi-cuadrada. Si el estadístico calculado es menor que el valor de tabla, no
se rechaza uniformidad.
Prueba de Kolmogorov-Smirnov: Compara la distribución acumulada
observada con la distribución uniforme teórica. Recomendable para
conjuntos pequeños (n < 20). Ordena los números, calcula D⁺, D⁻ y D, y
compara D con un valor crítico de tabla.
o Pruebas de Independencia:
Prueba de Corridas Arriba y Abajo: Determina secuencias de números
consecutivos que aumentan (corridas arriba) o disminuyen (corridas
abajo). Calcula el número observado de corridas y lo compara con el valor
esperado y varianza usando un estadístico Z₀.
Prueba de Corridas Arriba y Abajo de la Media: Determina secuencias
de números por encima o por debajo de la media (0.5). Calcula el número
observado de corridas y lo compara estadísticamente.
Prueba Poker: Visualiza los números con un número fijo de decimales
(como cartas de póker) y los clasifica por patrones de dígitos (todos
diferentes, un par, etc.). Compara las frecuencias observadas de cada
categoría con las esperadas usando Chi-cuadrada. Puede usarse con 3, 4 o
5 decimales.
Prueba de Series: Compara pares de números consecutivos (rᵢ, rᵢ₊₁)
usando una gráfica de dispersión dividida en casillas. Cuenta puntos en
cada casilla (frecuencia observada Oᵢ) y la compara con la frecuencia
esperada (Eᵢ=(n-1)/m) usando Chi-cuadrada.
Prueba de Huecos: Verifica el tamaño del "hueco" (número de ceros)
(α, β) ⊂ (0,1). Compara las frecuencias observadas de cada tamaño de
entre ocurrencias sucesivas de un número dentro de un intervalo definido
hueco con las esperadas usando Chi-cuadrada.
Variables Aleatorias
Representan fenómenos con comportamiento probabilístico en la realidad (ej: número de
clientes, tiempo de servicio).
Deben cumplir reglas de distribución de probabilidad (suma de probabilidades = 1, P(x) ≥
0).
El valor esperado de la distribución estima la media real de la población.
Los parámetros de distribución pueden estimarse con estimadores no sesgados (ej:
varianza muestral s² para σ²).
Se clasifican en discretas (valores enteros) y continuas (cualquier valor en un rango).
Se pueden asociar a distribuciones de probabilidad conocidas (discretas: Uniforme
Discreta, Bernoulli, Hipergeométrica, Poisson, Binomial; continuas: Uniforme Continua,
Exponencial, Normal, Weibull, Chi-cuadrada, Erlang) o usar distribuciones empíricas si
no se ajustan a distribuciones conocidas. Las distribuciones continuas conocidas pueden
tener desventajas (tiempos infinitos posibles).
Determinación del Tipo de Distribución de Datos
Para determinar la distribución de probabilidad de un conjunto de datos históricos, se
usan pruebas de bondad de ajuste:
o Prueba Chi-cuadrada: (Procedimiento general descrito en, aplicado a datos de
llegada de automóviles en). Requiere al menos 30 datos.
o Prueba de Kolmogorov-Smirnov: (Procedimiento general descrito en, aplicado
a tiempos entre roturas en). Limitada a variables continuas. Requiere al menos 30
datos.
o Prueba de Anderson-Darling: (Procedimiento general descrito en, aplicado a
tiempos de atención en). Modificación de Kolmogorov-Smirnov, sensible en los
extremos de la distribución. No es confiable para distribuciones discretas.
Requiere n datos.
Herramientas como Stat::Fit (complemento de ProModel) ayudan a analizar datos y
determinar distribuciones usando estas pruebas, calculan parámetros y proporcionan
estadísticas descriptivas. Permite seleccionar el tipo de distribución (continua o discreta)
y el rango (acotado/no acotado). Muestra resultados del ajuste y compara histogramas
observados y esperados.
Generación de Variables Aleatorias
La simulación de eventos aleatorios se realiza generando variables aleatorias.
Métodos principales:
o Método de la Transformada Inversa: Usa la función acumulada F(x) y números
pseudoaleatorios rᵢ~U(0,1). Para continuas, se despeja x en F(x)=rᵢ (x=F⁻¹(rᵢ)).
Para discretas, se comparan los rᵢ con la distribución acumulada P(x). Ejemplos:
Uniforme, Exponencial (continuas), Bernoulli, Poisson, General Discreta
(discretas).
o Método de Convolución: Genera una variable aleatoria Y sumando otras
variables aleatorias Xᵢ (Y = ΣXᵢ). Útil para distribuciones como Erlang (suma de
exponenciales), Normal (suma de uniformes según Teorema del Límite Central),
Binomial (suma de Bernoulli), Poisson.
o Método de Composición (Método Mixto): Genera variables aleatorias cuando la
función de densidad es una combinación convexa de otras funciones de densidad.
Se genera un rᵢ para seleccionar qué sub-distribución usar y otro rᵢ para generar el
valor de esa sub-distribución. Usado para distribuciones triangulares, de Laplace,
trapezoidales.
o Método de Transformación Directa: Basado en el teorema de Pitágoras, usado
para generar variables aleatorias Normales (ej: usando Box-Muller).
o Método de Aceptación y Rechazo: Mencionado pero no descrito en detalle.
Se proporcionan expresiones comunes para generar variables aleatorias de diversas
distribuciones a partir de rᵢ.
Verificación y Validación de Modelos de Simulación
Es crucial para asegurar un análisis correcto y evitar malas decisiones, especialmente en
sistemas estocásticos.
Muchos usuarios cometen errores al interpretar resultados, asumiendo un valor único para
variables de respuesta aleatorias en lugar de realizar un análisis estadístico completo.
La validación busca determinar si el modelo es una representación lo suficientemente
precisa del sistema real para los propósitos del estudio. Implica comparar el
comportamiento del modelo con el sistema real.
La verificación busca asegurar que el modelo de simulación funcione según lo diseñado
y programado.
La validación implica hacer corridas del modelo con datos reales y comparar los
resultados con el sistema real o las expectativas de expertos. Un histograma de las
réplicas y pruebas de bondad de ajuste pueden usarse para validar que la distribución de
los resultados del modelo sea similar a la real. En el ejemplo de Sushi Shack, la
validación comparó el promedio de ganancia reportado con el promedio de ganancia de
múltiples corridas usando un test de hipótesis.
Simulaciones Terminales vs. No Terminales (Estado Estable)
Simulaciones Terminales: Tienen un evento de terminación claro (ej: procesar un lote
de tamaño fijo, vender una cantidad fija, simular durante un periodo de tiempo fijo). El
análisis estadístico recomendado incluye intervalos de confianza y determinación de la
distribución de probabilidad de la variable de salida.
o Intervalos de Confianza: Debido a la naturaleza aleatoria, se calculan intervalos
de confianza para los resultados de las réplicas. La fórmula difiere si se asume
normalidad (usa distribución t) o no (usa teorema de Tchebycheff). El intervalo
bajo normalidad es más estrecho (mayor exactitud).
Simulaciones No Terminales (Estado Estable): No tienen un evento de terminación
predefinido y operan continuamente (ej: simular la operación anual de una planta). Se
busca simular hasta que las variables de interés alcancen un estado estable.
o Longitud de las Réplicas: Para alcanzar el estado estable, la longitud de la
réplica (n) debe ser suficiente para que la variación entre réplicas no difiera de
una exactitud deseada (ε) con una cierta probabilidad (1-α). Las fórmulas para
calcular la longitud de la réplica (n) dependen de si se asume normalidad y se
conoce la desviación estándar (usa z-score), si se asume normalidad pero se
desconoce la desviación estándar (usa distribución t y una corrida inicial), o si no
se asume normalidad (usa teorema de Tchebycheff). El número de réplicas
requerido es mucho mayor cuando no se asume normalidad. Las gráficas de
estabilización ayudan a visualizar la convergencia.
Modelado y Análisis en la Práctica (Ejemplos) Los ejemplos de la línea de espera,
ensamble/inspección, e inventarios ilustran cómo traducir un problema a un modelo de
simulación en una hoja de cálculo:
Identificar elementos: variables de estado, entidades, eventos, actividades.
Construir tablas de eventos y definir relaciones lógico-matemáticas entre los elementos
usando fórmulas.
Simular el proceso para un número suficiente de repeticiones (piezas, ensambles, días) en
una sola réplica.
Analizar la estabilización de la(s) variable(s) de respuesta clave mediante gráficos de
promedio móvil.
Realizar múltiples réplicas independientes para obtener una muestra de los resultados
finales de la(s) variable(s) de respuesta.
Realizar análisis estadístico de los resultados de las réplicas (media, desviación estándar,
pruebas de bondad de ajuste para determinar la distribución de la variable de respuesta,
cálculo de intervalos de confianza).
Sacar conclusiones basadas en el análisis estadístico (ej: cuál es el costo promedio, cuál
es la probabilidad de estar fuera de especificaciones, en qué rango de valores se encuentra
el resultado con cierta confianza).
Selección de Lenguajes de Simulación
La tecnología ha evolucionado de lenguajes de propósito general a lenguajes específicos
de simulación y, más recientemente, a simuladores con interfaces gráficas que facilitan la
programación.
La elección depende del tipo de sistema a simular y afecta el tiempo de desarrollo.
Factores clave para la selección:
o Mercados y aplicaciones típicas (manufactura, logística, salud, etc.).
o Requisitos de equipo (plataforma, memoria, disco).
o Capacidad de construcción y programación (íconos, drag-and-drop, acceso a
código, detección de errores, reutilización).
o Herramientas complementarias (ajuste de distribuciones automático, análisis de
variables de respuesta, diseño de experimentos, optimización).
o Animación (velocidad, vistas, exportación, compatibilidad, posibilidad de
prescindir de ella).
o Costo, tipo de licencia, soporte técnico, facilidad de entrenamiento.
o Capacidad de empaquetado, distribución, actualizaciones.
Se mencionan diversas aplicaciones disponibles en el mercado, desde lenguajes hasta
simuladores específicos.
Este resumen abarca los puntos clave presentados en los documentos sobre qué es la simulación,
sus elementos, cómo se realiza un estudio, sus ventajas y desventajas, la importancia de los
números pseudoaleatorios y las variables aleatorias, y cómo se determinan y generan, además de
consideraciones sobre la verificación, validación y selección de herramientas.