0% encontró este documento útil (0 votos)
16 vistas45 páginas

Cuadernillo de Simulación

El cuadernillo de simulación aborda la importancia y metodología de la simulación en ingeniería, incluyendo la generación de números pseudoaleatorios y variables aleatorias. Se discuten aplicaciones prácticas de la simulación en diversos campos, así como la estructura y etapas de un estudio de simulación. Además, se presentan definiciones clave y conceptos básicos que fundamentan el uso de simuladores en el análisis de sistemas complejos.

Cargado por

Rkent Kent
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
16 vistas45 páginas

Cuadernillo de Simulación

El cuadernillo de simulación aborda la importancia y metodología de la simulación en ingeniería, incluyendo la generación de números pseudoaleatorios y variables aleatorias. Se discuten aplicaciones prácticas de la simulación en diversos campos, así como la estructura y etapas de un estudio de simulación. Además, se presentan definiciones clave y conceptos básicos que fundamentan el uso de simuladores en el análisis de sistemas complejos.

Cargado por

Rkent Kent
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Cuadernillo de

Simulación

M. en C.Luis Ignacio
Sandoval Paéz

1
Índice
Página
Introducción a la simulación. 3
1.1 Definiciones e importancia de la simulación en la 3
Ingeniería.
1.2 Conceptos básicos de modelación. 5
1.3 Metodología de la simulación. 7
1.4 Sistemas, modelos y control. 7
1.5 Estructura y etapas de un estudio de simulación. 10
1.6 Etapas de un proyecto de simulación. 11

Números pseudoaleatorios 15
2.1 Métodos de generación de números pseudoaleatorios. 15
2.2 Pruebas estadísticas de aleatoriedad. 18
2.3 Método de Monte Carlo. 21

Generación de variables aleatorias 24


3.1 Introducción. 24
3.2 Variables aleatorias discretas. 25
3.3 Variables aleatorias continuas. 29
3.4 Métodos para generar variables aleatorias. 31

Lenguajes de simulación 32
4.1 Lenguajes de simulación y simuladores. 32
4.2 Aprendizaje y uso de un simulador. 33
4.3 Casos prácticos de simulación. 34

Unidad Integradora 34
5.1 Caso de estudio: análisis, modelado y simulación de 34
un sistema o subsistema de servicios o productivo de una
empresa para detectar las mejoras posibles a realizar.
5.2 Validación del sistema de simulación. 43

Referencias 45

2
Introducción a la simulación.

1.1 Definiciones e importancia de la simulación en la Ingeniería.

El verbo simular cada vez toma mayor auge en diversas disciplinas científicas,
para describir el viejo arte de la construcción de modelos. Aun cuando esta
palabra se aplica a diversas formas de construcción de modelos, tales como:
Los de la escultura y pintura del Renacimiento; Los modelos a escala de
aviones; Los modelos en computadora de los procesos cognoscitivos, e incluso
en las ciencias físicas y en las del comportamiento.

Su empleo moderno se remonta hacia fines de 1940, cuando Von Neumann y


Ulam acuñaron el término "ANÁLISIS DE MONTE CARLO" para aplicarlo a una
técnica matemática que usaban entonces en la resolución de ciertos problemas
de protección nuclear que eran, o demasiado costosos para resolverse
experimentalmente o de enorme complejidad para un tratamiento analítico.

El análisis de Monte Carlo involucraba la solución de un problema matemático,


no probabilístico mediante la simulación de un proceso estocástico, cuyos
momentos o distribuciones de probabilidad satisfacen las relaciones
matemáticas del problema no probabilístico.

Con la llegada de computadoras de gran velocidad, la simulación tomó otro


significado aún, al surgir la posibilidad de experimentar con modelos
matemáticos (que describen algún sistema de interés) en la computadora.

Por vez primera, los sociólogos al igual que los físicos encontraron que podrían
realizar experimentos controlados de laboratorio.

Al simular en computadoras, surgieron innumerables aplicaciones y con ello, un


número mayor de problemas teóricos y prácticos.

Definiciones

Desgraciadamente, no existe acuerdo respecto a una definición precisa de la


palabra simulación, la propuesta por C. West Churchman es estrictamente
formal:

" X simula a Y" sí y solo sí:

a. X e Y son sistemas formales.


b. Y se considera como sistema real
c. X se toma como una aproximación del sistema real

3
d. Las reglas de validez en X no están exentas de
error.

La definición de Shubik es la definición típica entre las más populares:


Simulación de un sistema (o un organismo) es la operación de un modelo
(simulador), el cual es una representación del sistema. Este modelo puede
sujetarse a manipulaciones que serían imposibles de realizar, demasiado
costosas o imprácticas.

La operación de un modelo puede estudiarse y con ello, inferirse las


propiedades concernientes al comportamiento del sistema o subsistema real.

Roger Schroeder planteaba: La simulación es una técnica que puede utilizarse


para resolver una amplia gama de modelos. Su aplicación es tan amplia que se
ha dicho: "Cuando todo falle, utilice simulación".

La simulación es, esencialmente, una técnica que enseña a construir el modelo


de una situación real aunada a la realización de experimentos con el modelo.
Definición bastante amplia, que puede comprender situaciones aparentemente
no relacionadas entre sí, como los simuladores de vuelo, juegos militares,
juegos de gerencia, modelos físicos de ríos, modelos econométricos, etc.,
desde la perspectiva de la ingeniería, nos interesa una definición más
restringida, solamente a experimentos con modelos lógicos o matemáticos,
pero además no nos interesan aquellos experimentos con elementos
de microeconomía, que ocurren bajo condiciones dadas de equilibrio estático y
producen soluciones completamente determinísticas.

En consecuencia, bajo estas restricciones, la definición que plantea Thomas


Naylor es bastante adecuada:

Simulación, es una técnica numérica para conducir experimentos en una


computadora digital, las cuales requieren ciertos tipos de modelos lógicos y
matemáticos, que describen el comportamiento de un negocio o un sistema
económico (o algún componente de ellos) en períodos extensos de tiempo real.

Simulación es una técnica numérica para conducir experimentos en una


computadora digital. Estos experimentos comprenden ciertos tipos de
relaciones matemáticas y lógicas, las cuales son necesarias para describir el
comportamiento y la estructura de sistemas complejos del mundo real a través
de largos periodos de tiempo.

Thomas H. Taylor

Simulación es el proceso de diseñar y desarrollar un modelo computarizado de


un sistema o proceso y conducir experimentos con este modelo con el
propósito de entender el comportamiento del sistema o evaluar varias
estrategias con las cuales se puede operar el sistema.

4
Robert e. Shannon

Importancia de la simulación en la Ingeniería. Recientes avances en las


metodologías de simulación y la gran disponibilidad de software que
actualmente existe en el mercado, han hecho que la técnica de simulación sea
una de las herramientas más ampliamente usadas en el análisis de sistemas.
Además de las razones antes mencionadas, Thomas H. Naylor ha sugerido
que un estudio de simulación es muy importante para la ingeniería de sistemas
porque presenta las siguientes ventajas en el diseño de estos:

• A través de un estudio de simulación, se puede estudiar el efecto de cambios


internos y externos del sistema, al hacer alteraciones en el modelo del sistema
y observando los efectos de esas alteraciones en el comportamiento del
sistema.

• Una observación detallada del sistema que se está simulando puede conducir
a un mejor entendimiento del sistema y por consiguiente a sugerir estrategias
que mejoren la operación y eficiencia del sistema.

• La simulación de sistemas complejos puede ayudar a entender mejor la


operación del sistema, a detectar las variables más importantes que interactúan
en el sistema y a entender mejor las interrelaciones entre estas variables.

• La técnica de simulación puede ser utilizada para experimentar con nuevas


situaciones, sobre las cuales tiene poca o ninguna información. A través de
esta experimentación se puede anticipar mejor a posibles resultados no
previstos.

• Cuando nuevos elementos son introducidos en un sistema, la simulación


puede ser usada para anticipar cuellos de botella o algún otro problema que
puede surgir en el comportamiento del sistema.

• En simulación cada variable puede sostenerse constante excepto algunas


cuya influencia está siendo estudiada. Como resultado el posible efecto de
descontrol de las variables en el comportamiento del sistema necesitan no ser
tomados en cuenta. Como frecuentemente debe ser hecho cuando el
experimento está desarrollado sobre un sistema real.

1.2 Conceptos básicos de simulación

5
Aplicaciones de la Simulación
Las áreas de aplicación de la simulación son muy amplias, numerosas y
diversas, basta mencionar sólo algunas de ellas: Análisis del impacto ambiental
causado por diversas fuentes Análisis y diseño de sistemas de manufactura
Análisis y diseño de sistemas de comunicaciones. Evaluación del diseño de
organismos prestadores de servicios públicos (por ejemplo: hospitales, oficinas
de correos, telégrafos, casas de cambio, etc.). Análisis de sistemas de
transporte terrestre, marítimo o por aire. Análisis de grandes equipos de
cómputo. Análisis de un departamento dentro de una fábrica. Adiestramiento de
operadores (centrales carboeléctricas, termoeléctricas, nucleoeléctricas,
aviones, etc.).Análisis de sistemas de acondicionamiento de aire. Planeación
para la producción de bienes. Análisis financiero de sistemas económicos.
Evaluación de sistemas tácticos o de defensa militar.

La simulación se utiliza en la etapa de diseño para auxiliar en el logro o


mejoramiento de un proceso o diseño o bien a un sistema ya existente para
explorar algunas modificaciones.

Se recomienda la aplicación de la simulación a sistemas ya existentes cuando


existe algún problema de operación o bien cuando se requiere llevar a cabo
una mejora en el comportamiento. El efecto que sobre el sistema ocurre
cuando se cambia alguno de sus componentes se puede examinar antes de
que ocurra el cambio físico en la planta para asegurar que el problema de
operación se soluciona o bien para determinar el medio más económico para
lograr la mejora deseada.

Todos los modelos de simulación se llaman modelos de entrada-salida. Es


decir, producen la salida del sistema si se les da la entrada a sus subsistemas
interactuantes. Por tanto los modelos de simulación se “corren” en vez de
“resolverse”, a fin de obtener la información o los resultados deseados. Son
incapaces de generar una solución por sí mismos en el sentido de los modelos
analíticos; solo pueden servir como herramienta para el análisis del
comportamiento de un sistema en condiciones especificadas por el
experimentador. Por tanto la simulación es una teoría, si no una metodología
de resolución de problemas. Además la simulación es solo uno de varios
planteamientos valiosos para resolver problemas que están disponibles para el
análisis de sistemas.

Pero ¿Cuándo es útil utilizar la simulación? Cuando existan una o más de las
siguientes condiciones:

1.- No existe una completa formulación matemática del problema o los métodos
analíticos para resolver el modelo matemático no se han desarrollado aún.
Muchos modelos de líneas de espera corresponden a esta categoría.

6
2.- Los métodos analíticos están disponibles, pero los procedimientos
matemáticos son tan complejos y difíciles, que la simulación proporciona un
método más simple de solución.

3.- Las soluciones analíticas existen y son posibles, pero están más allá de la
habilidad matemática del personal disponible El costo del diseño, la prueba y la
corrida de una simulación debe entonces evaluarse contra el costo de obtener
ayuda externa.

4.- Se desea observar el trayecto histórico simulado del proceso sobre un


período, además de estimar ciertos parámetros.

5.- La simulación puede ser la única posibilidad, debido a la dificultad para


realizar experimentos y observar fenómenos en su entorno real, por ejemplo,
estudios de vehículos espaciales en sus vuelos interplanetarios.

6.- Se requiere la aceleración del tiempo para sistemas o procesos que


requieren de largo tiempo para realizarse. La simulación proporciona un control
sobre el tiempo, debido a que un fenómeno se puede acelerar o retardar según
se desee.

1.3 Metodología de la simulación.

La Metodología de la Simulación por Computadora

El diseño y la implantación de una simulación por computadora dependen


del sistema que se esté modelando y también del lenguaje o paquete de
computadora específico de que se disponga. En cada simulación se realizan
ciertos pasos generales.

Clasificación del sistema

El diseño de una simulación depende de clasificar al sistema como uno


de los dos tipos.

1.4 Sistemas, modelos y control.

Sistema de eventos discretos: es un sistema cuyo estado cambia sólo en


ciertos puntos en el tiempo. Por ejemplo, en el modelo de la operación de un
banco, el estado del sistema se describe mediante el número de clientes en
línea y cuál de los pagadores está en ese momento ocupado. El estado de este
sistema cambia sólo en aquellos puntos en el tiempo en lo que:

7
a) un nuevo cliente llega o;

b) un cliente deja de ser atendido y sale del banco.

Este a su vez se clasifica como uno de los siguientes dos tipos:

Sistemas de Terminación: es aquel en el existen puntos de inicio y


terminación precisos y conocidos

Sistemas de no Terminación: es aquel que está en curso y que carece de


puntos de inicio y terminación precisos y conocidos.

Sistemas continuos: es aquel cuyo estado cambia continuamente a cada


momento en el tiempo.

Identificación de los componentes de una simulación por computadora.

Salida: es el objetivo de un estudio de simulación que tiene la forma de un


valor numérico específico.

Entrada: es un valor numérico que es necesario para determinar las salidas de


una simulación

Antes de diseñar los detalles de una simulación por computadora es decisivo


tener una clara comprensión de los objetivos del estudio en la forma de salidas
numéricas específicas.

Con las salidas identificadas, el siguiente paso es identificar las entradas. Estas
entradas caen en tres categorías generales:

Condición inicial: un valor que expresa el estado del sistema al principio de


una simulación.

Datos determinísticos: son valores conocidos necesarios para calcular las


salidas de una simulación.

Datos probabilísticos: son magnitudes numéricas cuyos valores son inciertos


pero necesarios para obtener las salidas de la simulación.

Diseño de la simulación por computadora. Una vez que se hayan


identificado las salidas y las entradas necesarias, la simulación real consiste en
generar números aleatorios y en la contabilidad.

Paso 1: Generación de números aleatorios: consiste en obtener las entradas


probabilísticas para el modelo generando números aleatorios de acuerdo con
las distribuciones conocidas asociadas.

8
Paso 2: Contabilidad: consiste en el diseño de un método sistemático para
almacenar y procesar todos los valores de entrada y para realizar los cálculos
necesarios para obtener los valores de salida.

Aspectos estadísticos de la simulación

Un conjunto de valores de entrada para un modelo de simulación es el


conjunto de condiciones iníciales que describe el estado del sistema en el
momento en que comienza la simulación. En muchos casos, estos valores son
fijos y se determinan fácilmente debido a la naturaleza del sistema. Por
ejemplo, simular la operación diaria de un banco, los valores iniciales que
describen el inicio de la simulación (esto es, el inicio del día) son que todavía
no hay clientes en el sistema y, en consecuencia, que todos los pagadores
disponibles están ociosos. En contraste, en algunos problemas las condiciones
iníciales no están tan fácilmente disponibles o, de hecho, no se conocen. En
estos casos, los valores iníciales generalmente se escogen de una de las
siguientes formas:

1. Asignando valores sobre la base de su conocimiento de cómo trabaja el


sistema que y de lo que sería más probable esperar en el momento
correspondiente al inicio de la simulación.

2. Asignando cualesquier valores iníciales razonables ejecutando la simulación


el tiempo suficiente como para minimizar la influencia de las condiciones
iníciales.

Asignando cualesquier valores iníciales razonables y ejecutando la simulación


durante algún periodo inicial, digamos T. Después descartar todas las
estadísticas acumuladas durante este periodo excepto las condiciones finales. -
Use estas condiciones finales como las condiciones iníciales para efectuar otra
simulación Entonces se compila y registra un segundo conjunto de estadísticas

El análisis estadístico se usa para determinar la longitud adecuada de la


ejecución de la simulación en el paso 2 y el periodo inicial T en el paso 3. Esto
análisis están más allá de nuestro alcance pero pueden encontrarse en
cualquier libro sobre simulación por computadora

La obtención del valor de salida de una sola corrida de simulación es


estadísticamente análoga a extraer una sola muestra de una población. Esto se
debe a que la secuencia de números aleatorios usados en la ejecución de la
simulación se basa en el número aleatorio uniforme inicial elegido y es sólo uno
de muchos resultados posibles.

9
1.5 Estructura y etapas de un estudio de simulación

Para llevar a cabo un experimento de simulación se requiere realizar las


siguientes etapas:

Definición del sistema: Para tener una definición exacta del sistema que se
desea simular, es necesario hacer primeramente un análisis preliminar del
mismo, con el fin de determinar la interacción del sistema con otros sistemas,
las restricciones del sistema, las variables que interactúan dentro del sistema y
sus interrelaciones, las medidas de efectividad que se van a utilizar para definir
y estudiar el sistema y los resultados que se esperan obtener del estudio.

Formulación del modelo: Una vez que están definidos con exactitud los
resultados que se desean obtener del estudio el siguiente paso es definir y
construir el modelo con el cual se obtendrán los resultados deseados. Aquí es
necesario definir las variables que forman parte de el modelo, sus relaciones
lógicas y los diagramas de flujo que describan en forma completa al modelo.

Colección de datos: Es posible que la facilidad de obtención de algunos datos o


la dificultad de conseguir otros, pueda influenciar el desarrollo y formulación del
modelo. Por ello es importante que se defina con claridad y exactitud los datos
que el modelo va a requerir para producir los resultados deseados.

Implementación del modelo en la computadora: Aquí se define cual es el


lenguaje que se va a utilizar algunos de estos pueden ser de propósito general
como: Visual basic, Java, Delphi o se pueden usar unos paquetes como:
GBSS,SIMULA,PROMODEL.

Validación: Atreves de esta etapa es posible detallar definiciones en la


formulación del modelo o en los datos alimentados al modelo. Las formas más
comunes de validar un modelo son:

a) Opinión de expertos

b) La exactitud con la que se predicen los datos

c) Exactitud de la predicción del futuro

d) Comprobación de la falla del modelo de simulación al utilizar datos que


hacen fallar al sistema.

e) Aceptación y confianza en el modelo de la persona que lo usara.


10
Experimentación: La experimentación con el modelo se realizara después de
que este ha sido validado. La experimentación consiste en generar los datos
deseados y en realizar análisis de sensibilidad de los índices requeridos.

Interpretación: Se interpretan los resultados que arroja la simulación y en base


a esto se toma una decision.
Documentación: Existen dos tipos de documentación que son requeridos para
hacer un mejor uso del modelo de simulación.
Documentación Técnica: Es la documentación que con el departamento de
procesamiento de datos debe tener del modelo.
Manual del Usuario: Es la documentación que facilita la interpretación y el uso
del modelo desarrollado a través de una terminal de computadora.

1.6 Etapas de un proyecto de simulación

Formulación del problema.

Otro importante aspecto abordado en la investigación es la identificación y


estudio de las técnicas de integración para la formulación de las tareas
docentes. Sin pretender profundizar en las complejidades que encierra una
investigación pedagógica sobre el tema, a continuación se describen muy
brevemente algunas técnicas utilizadas para la formulación de problemas de
integración estructural, que son los más importantes:

1.- Modelación. Fijado el objetivo que se persigue en la creación de un


problema, inmediatamente se activan los componentes intelectuales básicos:
sensaciones, percepciones, memoria, pensamiento e imaginación. Con ellos se
comienzan a dibujar en el cerebro nuevas ideas en forma de imágenes, con la
necesidad de ser exteriorizadas mediante la construcción de modelos gráficos,
es por ello que los elementos estructurales del problema son plasmados en el
papel antes de su redacción en el formato final.

La técnica de modelación es un recurso asociativo de gran valor en la fluidez


de los procesos lógicos de análisis y síntesis del pensamiento que se
desarrollan en el acto de creación. Es el reflejo gráfico en el papel de las
asociaciones que van conformándose como estructuras cognitivas, y los
dibujos, esquemas, trazos, etc que inicialmente viene apareciendo de forma
aislada y sucesiva, luego se integran en forma de sistema para la formulación
final del problema. Esta técnica constituye un buen instrumento en manos del
formulador porque facilita la asociación de ideas, ayuda a agrupar los

11
elementos estructurales del problema y facilita la redacción en forma
coherente.

La construcción de los diagramas de Euler para estudiar las distintas relaciones


que se establecen entre los conocimientos, es una actividad que ayuda a
desarrollar la habilidad de modelación. Estos diagramas también son utilizados
en la metodología como situación inicial para la construcción de tareas que
respondan a determinadas características.

2.-Tanteo-error. Consiste en un proceso continuo de adecuación y ajuste por


búsqueda y prueba de los datos y/o las incógnitas según las condiciones del
problema, hasta encontrar las más adecuadas. La búsqueda puede ser de tipo
inteligente o arbitrario, y en ocasiones es utilizada para modificar las
condiciones y con ella reordenar los elementos estructurales. Se evidencia su
utilización en el gran número de operaciones de cálculo que son realizadas, así
como en tachaduras y borrones que generalmente aparecen sobre el papel del
formulador.

3.- Asociación por analogía. En esta técnica se hace uso de la reproducción en


una primera fase. Consiste en establecer nuevos nexos entre datos e
incógnitas siguiendo formatos y textos guardados en la memoria para obtener
otras por medio de la innovación. Es evidente que sobre las ideas iníciales,
posteriormente se introducen modificaciones, que consisten en relacionar los
datos de otra forma, introducir nuevas condiciones o cambiar la forma de
redactar las preguntas, para obtener al final un problema derivado, que si bien
no se caracteriza por su originalidad, sí constituye una nueva tarea.

Estas tres primeras técnicas son tipificadas como complementarias en el acto


de creación de las tareas docentes, porque actúan de forma combinada y más
bien son instrumentos de ayuda, según la situación inicial que se tome como
punto de partida.

Otras, como las siguientes, son denominadas básicas por su gran influencia y
jerarquía en la formulación, sin embargo, tanto las complementarias como las
básicas se utilizan de forma combinada en la práctica.

4.-Integración por inclusión. Es una técnica muy sencilla, cuyo procedimiento


es asequible a cualesquier sujeto. Consiste en elaborarla de forma tal que las
incógnitas de los diferentes incisos mantengan una dependencia sucesiva en
forma de cadena.

12
5.- Reformulación. Consiste en reconstruir la estructura gramatical y de sistema
mediante procesos de innovación. Se diferencia de la analogía por la
profundidad de los cambios introducidos, puesto que se parte de un ejemplo
concreto que debe ser modificado y no de recuerdos que pueden ser borrosos
y a veces confusos.

Durante su utilización se requiere de la imaginación y el pensamiento creativo


para introducir los cambios, que de forma general pueden ser:

- introducir nuevas condiciones o modificar las viejas.

- cambiar las magnitudes de los datos.

- sustituir los datos cuantitativos por cualitativos.

- incorporar datos cualitativos sobre las sustancias involucradas para su


identificación.

- incorporar datos adicionales (o en exceso) como distractores.

- reducir los datos a un mínimo o dejarlos en defecto.

- utilizar datos compuestos.

- redactar incógnitas compuestas.

- emplear incógnitas de varias soluciones, indefinidas o sin solución.

Con ella se han formulado problemas muy novedosos, con relaciones


complejas entre los elementos estructurales. Por lo regular la calidad está
determinada por la capacidad del formulador para redactar de una forma
coherente y original los cambios introducidos.

6.- Fusión de tareas (o contenidos) auxiliares. Como parte de las estrategias de


integración, la fusión de tareas docentes auxiliares constituye una de las más
importantes. Es poco empleada, debido a la elevada complejidad que implica el
establecimiento de relaciones múltiples entre datos e incógnitas que proceden
de ejemplos diferentes, aunque también pueden ser integrados diversos
contenidos previamente seleccionados, que guarden una relación directa o
indirecta. Consiste en fusionar dos o más contenidos (que pueden o no
proceder de otras tareas), mediante los mecanismos de la integración externa o
interna, para obtener otra con un mayor nivel de complejidad. Para poner en

13
práctica las técnicas analizadas, es necesario aclarar que casi nunca se
emplean de forma aislada, más bien en forma asociada como conjunto, por
ejemplo cuando se selecciona la reformulación, ella va acompañada de otras
complementarias como la modelación y el tanteo-error, entre otras.

Verificación y validación

• Se pueden producir errores en cualquiera de las fases del proceso de


desarrollo de un programa:

Validación: consiste en comprobar que tanto el algoritmo como el programa


cumplen la especificación del problema; responde a la pregunta: estamos
resolviendo el problema correcto?

Verificación: se refiere a la comprobación de que son correctos y completos;


responde a la pregunta: estamos resolviendo el problema de forma correcta?

• Una parte importante de la verificación y la validación es la ejecución del


programa con distintos conjuntos de datos:

Modo interactivo: el usuario introduce los valores de los datos durante la


ejecución del programa (desde el teclado), y se muestra la salida producida por
el programa directamente al usuario (normalmente en una pantalla).

Procesamiento por lotes: el usuario debe preparar un archivo que contenga el


programa, los datos y quizá ciertas ordenes; la ejecución se lleva a cabo sin
ninguna interacción con el usuario.

• Los errores pueden detectarse en distintas fases del procesamiento del


programa y provocar la detención del proceso.

Errores sintácticos o errores en tiempo de compilación: por ejemplo, puntuación


incorrecta o palabras claves escritas incorrectamente; se detectan en tiempo de
compilación y normalmente hacen imposible completar la compilación y
ejecutar el programa.

Errores en tiempo de ejecución: por ejemplo, dividir por cero en una expresión
aritmética; pueden no ser detectados hasta que ha comenzado la ejecución del
programa.

14
Errores lógicos: surgen en el diseño del algoritmo o en la codificación del
programa que implemente el algoritmo; no ocurre ningún error durante la
compilación o la ejecución del programa, pero la salida producida no es
correcta.

• El proceso de prueba consiste en ejecutar un programa varias veces con


datos de entrada distintos para los que se conoce los resultados correctos.
Este proceso es importante para evaluar la corrección de un programa. Los
datos de prueba deben seleccionarse cuidadosamente, de forma que se
pruebe cada parte del programa.

2.- números pseudoaleatorios

2.1 Métodos de generación de números pseudoaleatorios.

Un número pseudoaleatorio es un número generado en un proceso que


parece producir números al azar, pero no lo hace realmente. Las secuencias de
números pseudoaleatorios no muestran ningún patrón o regularidad aparente
desde un punto de vista estadístico, a pesar de haber sido generadas por un
algoritmo completamente determinista, en el que las mismas condiciones
iníciales producen siempre el mismo resultado.

Los mecanismos de generación de números aleatorios que se utilizan en la


mayoría de los sistemas informáticos son en realidad procesos
pseudoaleatorios.

Una de las utilidades principales de los números pseudoaleatorios se lleva a


cabo en el llamado método de Monte Carlo, con múltiples utilidades, por
ejemplo para hallar áreas, volúmenes encerradas en una gráfica y cuyas
integrales son muy difíciles de hallar o irresolubles; mediante la generación de
puntos basados en estos números, podemos hacer una buena aproximación de
la superficie, volumen total , encerrándolo en un cuadrado, cubo , aunque no lo
suficientemente buena. Asimismo, también destacan en el campo de la
Criptografía . Por ello se sigue investigando en la generación de dichos
números, empleando por ejemplo medidores de ruido blanco o analizadores
atmosféricos, ya que experimentalmente se ha comprobado que tienen una
aleatoreidad bastante alta.

Métodos de generación números Pseudoaleatorios.

Existen un gran número de métodos para generar los números aleatorios


uniformes entre 0 y 1. Algunas formas de obtener estos números son:

15
Utilizando tablas de números aleatorios.

Utilizando calculadoras (algunas incluyen una función para generarlos ).

Los lenguajes de programación y las hojas electrónicas incluyen una función


para generarlos.

Utilizando Generadores Congruenciales.

El método a utilizar, en sí mismo, no tiene importancia: la importancia radica en


los números que genera, ya que estos números deben cumplir ciertas
características para que sean validos. Dichas características son:

1. Uniformemente distribuidos.

2. Estadísticamente independientes.

3. Su media debe ser estadísticamente igual a 1/2.

4. Su varianza debe ser estadísticamente igual a 1/12.

5. Su periodo o ciclo de vida debe ser largo.

6. Deben ser generados a través de un método rápido.

7. Generados a través de un método que no requiera mucha capacidad de


almacenamiento de la computadora.

Métodos para generar números aleatorios no uniformes

En los modelos estocásticos existirán una o más variable aleatorias


interactuando. Estas variables siguen distribuciones de probabilidad teóricas o
empíricas, diferentes a la distribución uniforme (0–1). Para generar números
que sigan el comportamiento de éstas variables, se pueden utilizar algunos
métodos como los siguientes:

1. Método de la transformada inversa

2. Método de rechazo

3. Método de composición.

16
4. Procedimientos especiales

Método de la transformada inversa.

El método de la transformada inversa utiliza la distribución acumulada F(x) de


la distribución que se va a simular. Puesto que F(x) está definida en el intervalo
(0–1), se puede generar un número aleatorio uniforme R y tratar de determinar
el valor de la variable aleatoria para cual su distribución acumulada es igual a
R, es decir, el valor simulado de la variable aleatoria que sigue un distribución
de probabilidad f(x), se determina al resolver la siguiente ecuación.

F(x) = R ó x = F-1(R)

La dificultad principal de este método descansa en el hecho de que en algunas


ocasiones es difícil encontrar la transformada inversa. Sin embargo si esta
función inversa ya ha sido establecida, generando números aleatorios
uniformes se podrán obtener valores de la variable aleatoria que sigan la
distribución de probabilidad deseada.

Un método sencillo para generar números pseudoaleatorios es el de Neumann.


1. ELEGIR UN NUMERO INICIAL DE 10 CIFRAS.
2. ELEVARLO AL CUADRADO
3. ELEGIR LOS CINCO CENTRALES.
X0= (1234567890)2
X0=1524157875019052100
X0=87501
X1=(87501)2……….

Otro método sencillo es el llamado congruencial que utiliza la siguiente


relación:

X i = (Ax i-1 +C) mod M

Un Generador de números aleatorios es un componente o funcionalidad que


crea números o símbolos para un programa software en una forma que carezca
de un patrón evidente, y que así parezcan ser números aleatorios.

La mayor parte de los generadores de números aleatorios son, en realidad,


pseudoaleatorios: se calcula (o introduce internamente) un valor X0, que
llamaremos semilla, y, a partir de él, se van generando X1, X2, X3, ...

17
Siempre que se parta de la misma semilla, se obtendrá la misma secuencia de
valores.

El algoritmo básico es el método congruencial, que genera valores en el


intervalo [0,1), mediante el siguiente esquema: Se fijan A, B, enteros positivos
(deben tener ciertas propiedades para obtener un buen generador), y, a partir
de una semilla X0 en el conjunto 0,1,...,(m-1), se generan:

X1 = (AX0+B) mod m

X2 = (AX1+B) mod m

X3 = (AX2+B) mod m

Xk+1= (AXk+B) mod m

Donde (AXi+B) mod m es el resto de la división entera de (AXi+B) entre m. Por


ejemplo, 16 mod 7 es 2 (se divide 16 entre 7, toca a 2 y sobran 2).

A partir del método congruencial, es posible tomar valores pseudoaleatorios


en el intervalo [0,1) como sigue: Se toma m, entero, muy grande, se toman A, B
adecuados, y una semilla X0 en 0,1,..,(m-1). A partir de ella, se generan
X1,X2,X3,... por el método congruencial, y a partir de ellos, Y0,Y1,Y2,Y3,...
mediante la fórmula Yk = Xk /m

2.2 Pruebas estadísticas de aleatoriedad.

Prueba de Kolmogorov-Smirnov para una muestra

La prueba de Kolmogorov-Smirnov para una muestra se considera un


procedimiento de “bondad de ajuste”, es decir, permite medir el grado de
concordancia existente entre la distribución de un conjunto de datos y una
distribución teórica específica. Su objetivo es señalar si los datos provienen de
una población que tiene la distribución teórica especificada.

Mediante la prueba se compara la distribución acumulada de las frecuencias


teóricas (ft) con la distribución acumulada de las frecuencias observadas (fobs),
se encuentra el punto de divergencia máxima y se determina qué probabilidad
existe de que una diferencia de esa magnitud se deba al azar.

En las tareas de investigación se pudo obtener un conjunto de observaciones,


en las cuales se supone que tienen una distribución normal, binomial, de
Poisson, etc. Para el caso, las frecuencias de las distribuciones teóricas deben

18
contrastar con las frecuencias observadas, a fin de conocer cuál distribución se
adecua mejor al modelo.

Pasos:

1. Calcular las frecuencias esperadas de la distribución teórica específica por


considerar para determinado número de clases, en un arreglo de rangos de
menor a mayor.

2. Arreglar estos valores teóricos en frecuencias acumuladas.

3. Arreglar acumulativamente las frecuencias observadas.

4. Aplicar la ecuación D = ft – fobs, donde D es la máxima discrepancia de


ambas.

5. Comparar el valor estadístico D de Kolmogorov-Smirnov en la tabla de


valores críticos de D.

6. Decidir si se acepta o rechaza la hipótesis.

Ecuación:

D = ft – fobs

En esta ecuación se aprecia que el procedimiento es muy simple y quizá lo que


parezca más complicado corresponde al cálculo de la frecuencia esperada de
cada tipo de distribución teórica. Por lo tanto, en la marcha de los ejercicios se
presentará cada uno de ellos y la manera de aplicar la prueba estadística.

Ejemplo:

En una investigación, consistente en medir la talla de 100 niños de 5 años de


edad (los datos van de 90 a 110), se desea saber si las observaciones
provienen de una población normal.

Elección de la prueba estadística.

El modelo experimental tiene una muestra y es factible un arreglo en el carácter


ordinal o en los rangos de las series de clases.

Planteamiento de la hipótesis.

19
• Hipótesis alterna (Ha). Los valores observados de las frecuencias para cada
clase son diferentes de las frecuencias teóricas de una distribución normal.

• Hipótesis nula (Ho). Las diferencias entre los valores observados y los
teóricos de la distribución normal se deben al azar.

Nivel de significación.

Para todo valor de probabilidad igual o menor que 0.05, se acepta Ha y se


rechaza Ho.

Zona de rechazo.

Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha.

Los valores X + σ son 99.2 ± 2.85.

Aplicación de la prueba estadística.

Primero se elaboran los cálculos de los valores teóricos esperados para la


distribución normal.

Inicialmente se determina el valor Z de los límites de cada clase en la serie, por


ejemplo: en la primera clase se determinan el límite inferior y el superior (90 y
93), y en las subsecuentes sólo los límites superiores (97, 101, 105 y 109).
Para cada valor de Z, se localiza el área bajo la curva norma tipificada.

Los cálculos de valores Z, son de la forma siguiente:

Y así sucesivamente.

Para cada valor Z, se localiza el área de la curva tipificada de la tabla de


números aleatorios. A partir de estos valores, se obtiene la diferencia entre los
límites de clases entre el superior y el inferior, por ejemplo: 0.4997 - 0.4793 =
0.020, 0.4793 - 0.2357 = 0.2436, 0.2357 - (−0.2794) = 0.5151, −0.2794 -
(−0.4854) = 0.206 y −0.4854 - (−0.4994) = 0.014.

Estos resultados de diferencias se multiplican por el tamaño de la muestra (100


niños), luego se obtienen las frecuencias teóricas y después se arreglan en
frecuencias acumuladas.

Cálculos de los valores teóricos.

20
Las frecuencias acumuladas teóricas y las observadas se arreglan en los
rangos correspondientes, y posteriormente se aplica la fórmula de Kolmogorov-
Smirnov.

Cálculo estadístico D de Kolmogorov-Smirnov.

D = ft - fobs = - 0.036

La diferencia máxima D es igual−0.049, a valor que se compara con los


valores críticos de D en la prueba muestral de Kolmogorov-Smirnov y se
obtiene la probabilidad de la existencia de esa magnitud de acuerdo con la
prueba de Kolmogorov-Smirnov. El valor N es 100 y el mayor número de N en
la tabla es 35, por lo cual se aplica la fórmula al pie de la tabla:

Para la probabilidad de

Lo anterior quiere decir que para todo valor menor que el crítico para una
probabilidad de 0.05, la probabilidad correspondiente es mayor que 0.05, y todo
valor mayor que D al calculado tienen una probabilidad menor que 0.05, o sea,
es inversamente proporcional al crítico determinado o localizado en la tabla.

Decisión.

En virtud de lo anterior, el estadístico de Kolmogorov-Smirnov obtendo es


menor que el crítico y su probabilidad mayor que 0.05, por lo tanto, se acepta
Ho y se rechaza Ha.

Interpretación.

Las frecuencias observadas y las teóricas calculadas no difieren


significativamente. Por lo tanto, las observaciones tienen una distribución
normal.

2.3 Método de Montecarlo

El método de Monte Carlo es un método no determinístico o estadístico


numérico usado para aproximar expresiones matemáticas complejas y
costosas de evaluar con exactitud. El método se llamó así en referencia al
Casino de Montecarlo (Principado de Mónaco) por ser “la capital del juego de
azar”, al ser la ruleta un generador simple de números aleatorios. El nombre y
el desarrollo sistemático de los métodos de Monte Carlo datan

21
aproximadamente de 1944 y se mejoraron enormemente con el desarrollo de la
computadora.

El uso de los métodos de Monte Carlo como herramienta de investigación,


proviene del trabajo realizado en el desarrollo de la bomba atómica durante la
segunda guerra mundial en el Laboratorio Nacional de Los Álamos en EE.UU.
Este trabajo conllevaba la simulación de problemas probabilísticos de
hidrodinámica concernientes a la difusión de neutrones en el material de fusión,
la cual posee un comportamiento eminentemente aleatorio. En la actualidad es
parte fundamental de los algoritmos de trazado de rayos para la generación de
imágenes sintéticas.

En la primera etapa de estas investigaciones, John von Neumann y Stanislaw


Ulam refinaron esta ruleta rusa y los métodos "de división" de tareas. Sin
embargo, el desarrollo sistemático de estas ideas tuvo que esperar el trabajo
de Harris y Herman Kahn en 1948. Aproximadamente en el mismo año, Enrico
Fermi, Metrópolis y Ulam obtuvieron estimadores para los valores
característicos de la ecuación de Schrödinger para la captura de neutrones a
nivel nuclear usando este método.

El método de Monte Carlo proporciona soluciones aproximadas a una gran


variedad de problemas matemáticos posibilitando la realización de
experimentos con muestreos de números pseudoaleatorios en una
computadora. El método es aplicable a cualquier tipo de problema, ya sea
estocástico o determinista. A diferencia de los métodos numéricos que se
basan en evaluaciones en N puntos en un espacio M-dimensional para producir
una solución aproximada, el método de Monte Carlo tiene un error absoluto de

la estimación que decrece como en virtud del teorema del límite central.

Orígenes del método

La invención del método de Monte Carlo se asigna a Stan Ulam y a John von
Neumann. Ulam ha explicado cómo se le ocurrió la idea mientras jugaba un
solitario durante una enfermedad en 1946. Advirtió que resulta mucho más
simple tener una idea del resultado general del solitario haciendo pruebas
múltiples con las cartas y contando las proporciones de los resultados que
computar todas las posibilidades de combinación formalmente. Se le ocurrió
que esta misma observación debía aplicarse a su trabajo de Los Álamos sobre
difusión de neutrones, para la cual resulta prácticamente imposible solucionar
las ecuaciones íntegro-diferenciales que gobiernan la dispersión, la absorción y
la fisión. “La idea consistía en probar con experimentos mentales las miles de
posibilidades, y en cada etapa, determinar por casualidad, por un número
aleatorio distribuido según las probabilidades, qué sucedería y totalizar todas
las posibilidades y tener una idea de la conducta del proceso físico”.

Podían utilizarse máquinas de computación, que comenzaban a estar


disponibles, para efectuar las pruebas numéricas y en efecto reemplazar el
aparato experimental del físico. Durante una de las visitas de von Neumann a

22
Los Álamos en 1946, Ulam le mencionó el método. Después de cierto
escepticismo inicial, von Neumann se entusiasmó con la idea y pronto comenzó
a desarrollar sus posibilidades en un procedimiento sistemático. Ulam expresó
que Monte Carlo “comenzó a tener forma concreta y empezó a desarrollarse
con todas sus fallas de teoría rudimentaria después de que se lo propuse a
Johnny”.

A principios de 1947 Von Neumann envió una carta a Richtmyer a Los Álamos
en la que expuso de modo influyente tal vez el primer informe por escrito del
método de Monte Carlo. Su carta fue encuadernada junto con la respuesta de
Richtmyer como un informe de Los Álamos y distribuida entre los miembros del
laboratorio. Von Neumann sugería aplicar le método para rastrear la
generación isótropa de neutrones desde una composición variable de material
activo a lo largo del radio de una esfera. Sostenía que el problema era
adecuado para el ENIAC y estimaba que llevaría 5 horas calcular la acción de
100 neutrones a través de un curso de 100 colisiones cada uno.

Ulam estaba particularmente interesado en el método Monte Carlo para evaluar


integrales múltiples. Una de las primeras aplicaciones de este método a un
problema determinista fue llevada a cabo en 1948 por Enrico Fermi, Ulam y von
Neumann cuando consideraron los valores singulares de la ecuación de
Schrödinger.

Ejemplo

Si deseamos reproducir, mediante números aleatorios, la tirada sucesiva de


una moneda, debemos previamente asignarle un intervalo de números
aleatorios a CARA y otro a CRUZ, de manera de poder interpretar el resultado
de la simulación. Tales intervalos se asignan en función de las probabilidades
de ocurrencia de cada cara de la moneda. Tenemos así:

CARA Probabilidad: 0,50 Números aleatorios: 0,000 al 0,499

CRUZ Probabilidad: 0,50 Números aleatorios: 0,500 al 0,999

Después, al generar un número aleatorio a partir de la función RAN de la


calculadora, por ejemplo, obtenemos el resultado simulado. Así, si obtenemos
el número aleatorio 0,385, observamos que está incluido en el intervalo
asignado a CARA.

En otras aplicaciones, se asocian intervalos de números aleatorios según las


probabilidades de ocurrencia de los eventos a simular.

23
3.- Generación de variables aleatorias

3.1 Introducción.

En estadística, un número aleatorio es un resultado de una variable al azar


especificada por una distribución. Los algoritmos para la generación de valores
uniformemente distribuidos están presentes en todas las calculadoras y
lenguajes de programación, y suelen estar basados en congruencias numéricas
del tipo:

El éxito de este tipo de generadores de valores de una variable aleatoria


depende de la elección de los cuatro parámetros que intervienen inicialmente
en la expresión anterior:

• El valor inicial o semilla: x0


• La constante multiplicativa: a
• La constante aditiva: c
• El número m respecto al cual se calculan los restos

Estos cuatro valores deben ser números enteros no negativos y que cumplan la
siguiente condición: x0,a,c < m

Por la condición anterior, es evidente que todos los valores generados por este
procedimiento son números enteros entre 0 y m-1. El número máximo de cifras
distintas que pueden obtenerse con el procedimiento descrito es m, así que
llegará un momento en que el primer número generado se repetirá
produciéndose un ciclo.

El ciclo dónde inevitablemente caerá el generador interesa que sea de la mayor


longitud posible (como máximo m), para evitar que se repitan pronto los valores
aleatorios. Por ejemplo, para los valores a = 3, c = 5, x0 = 2 y m = 32 se obtiene
la siguiente secuencia de valores:

2-11-6-23-10-3-14-15-18-27-22-7-26-19-30-31-2-11-6

La secuencia generada tiene como longitud 16 números (el número generado


en la decimoséptima posición es el 2 inicial, por lo que toda la secuencia se
repite a partir de ahí), muy inferior a la longitud máxima que podría tener
(m=32). Determinadas elecciones de parámetros del generador (x0 , a , c y m)
conducen a ciclos de amplitud máxima.

• Si c!=0:
o m.c.m.(c,m) = 1

24
para cada primo p de m

si 4 es divisor de m

Si c=0:

m es primo

para cada factor primo p de m-1

Por ejemplo, tomando como valores m = 25 = 32, a = 5, x0 = 1 y c = 3 se


obtiene la siguiente secuencia de números, que tiene longitud máxima:

1-8-11-26-5-28-15-14-9-16-19-2-13-4-23-22-17-24-27-10-21-12-31-30-25-0-3-
18-29-20-7-6-1

3.2 Variables aleatorias discretas

Método de la transformación inversa

Sea X una variable aleatoria discreta con función de distribución F y


probabilidades puntuales

Considerando la función F, que es escalonada, se tiene el siguiente algoritmo:

1.

Se hace s=p1, i=1.

2.

Se genera u = U (0,1) .

Si u < s , entonces x=xi es el valor que se genera y finaliza el algoritmo.


Si u>s, entonces se hace i=i+1, s=s+pi y se repite el paso 2.

25
Distribuciones concretas

Distribución geométrica

Representa el número de fracasos hasta que se produce el primer éxito en un


experimento de Bernouilli de parámetro p.

La variable geométrica se puede relacionar fácilmente con la variable


exponencial:

Sea .

Sea x>0.

Como , tomemos tal que para conseguir la expresión

de probabilidad puntual de una distribución G(p). Basta tomar .

Tras esto se toma un valor y generado según una y se toma

x=[y]. Ya se vio que para ello hay que hacer , con , por
lo que se concluye que

Distribución binomial negativa


Representa el número de fracasos antes del r-ésimo éxito en un experimento
de Bernouilli de parámetro p.

26
Existen varias formas de simular variables con distribución binomial negativa: la
más inmediata es ir simulando experimentos de Bernouilli de parámetro p y
contabilizar los fracasos hasta que se obtiene el éxito r-ésimo. Otro modo
consiste en observar que una variable BN(p,r) es suma de r variables
geométricas G(p) independientes, por lo que basta simular r veces una
geométrica con parámetro p y sumar los valores obtenidos.

Veamos también un algoritmo directo basado en el método de composición.

Sean (Poisson) y .

Luego esta composición es . Como nosotros queremos simular una

BN(p,r), entonces debemos tomar , , resultando el siguiente


algoritmo:

1.

Se genera .

2.

Se genera .

Este valor x está distribuido según una distribución binomial negativa


BN(p,r).

27
Distribución de Poisson
En la primera parte de la asignatura se vio que si los tiempos entre sucesos

consecutivos son , entonces el número de sucesos por unidad de

tiempo sigue una distribución de Poisson de parámetro . En consecuencia,

para generar una variable , podemos proceder del siguiente modo: se

generan valores tales que . Ese valor x

corresponderá a una variable .

Como los valores Tj son exponenciales de parámetro , entonces se tiene que

, con , por lo que

En resumen, el algoritmo es el siguiente:

1.

Sean k=1, x=1.

2.

28
Se genera y se hace k=kui.

3.

Si , entonces x-1 es el valor buscado. En caso contrario se hace


x=x+1 y se va al paso 2.

3.3 Variables aleatorias continuas

Distribución exponencial

Un método que ya se usado varias veces consiste en tomar

con . Otro método, basado en los estadísticos ordenados y que


permite generar n valores a la vez, es el siguiente: se generan

Ordenando obtenemos y definimos


u(0)=0, u(n)=1. Ahora se hace

Estos valores corresponden a una variable Exp(1) y son independientes.

Distribución gamma

Sea y . Como esta distribución es reproductiva respecto del

segundo parámetro y una variable es una , consideramos la


siguiente descomposición:

29
Es por esto por lo que basta limitarse a simular variables con .
El siguiente teorema nos da un método directo para simular estas variables. Si

y son independientes, entonces

Distribución beta

Si , , entonces f está acotada y se puede aplicar aceptación y rechazo.

El valor máximo de f se alcanza en para una cota de

Sin embargo, el método sólo es eficiente si tanto como están próximos a


uno. En los dos siguientes teoremas veremos dos métodos para simular

variables beta de modo eficiente. Si e son


independientes, entonces

30
Sean U1, e independientes, . Si ,
entonces

Distribución normal

Para generar una variable , basta generar una variable N(0,1), pues

Con el fin de generar una variable N(0,1) se considera el cambio de


coordenadas siguiente (cambio polar):

con e independientes. Las variables Z1, Z2 son N(0,1) e


independientes.

3.4 Métodos para generar variables aleatorios

Para la función triangular:

31
4 Lenguajes de simulación

4.1 Lenguajes de simulación y simuladores

El desarrollo de los lenguajes de Simulación comenzó a finales de los años


cincuenta; inicialmente los lenguajes que se usaron en fueron los de propósito
general, los cuales tenían las siguientes ventajas:

La situación a analizar se puede modelar en forma más o menos sencilla para


el programador por el conocimiento del lenguaje.

El proceso se puede describir con tanta precisión como le sea posible en el


lenguaje conocido.

Se pueden realizar todas las depuraciones posibles.

Cualquier lenguaje de programación puede ser empleado para trabajar en


Simulación, pero los lenguajes especialmente diseñados presentan las
siguientes propiedades:

Acaban la tarea de programación.

Generan una guía conceptual.

Colaboran en la definición de entidades en el sistema.

32
Manejan la flexibilidad en los cambios.

Ayudan a analizar y a determinar la relación y el número de entidades en el


sistema.

Emshoff y Sisson consideran que la Simulación Discreta requiere de ciertas


funciones comunes que diferencian un lenguaje de Simulación de uno de
propósito general, entre las cuales se encuentran las siguientes:

Generar números aleatorios.

Generar variables aleatorias.

Variar el tiempo hasta la ocurrencia del siguiente evento.

Registrar datos para salida.

Realizar análisis estadístico sobre datos registrados.

Construir salidas en formatos determinados.

Detectar inconsistencias y errores.

4.2 Aprendizaje y uso de un simulador

Los lenguajes precursores en Simulación fueron los de propósito general, entre


ellos por mencionar solo algunos tenemos: FORTRAN, ALGOL, COBOL, RPG,
BASIC, PASCAL, MODULA, PL/1, etc. Los principales lenguajes utilizados en
Simulación son:

Simulación de cambio continuo y de cambio discreto en computadoras híbridas


H01; Simulación de incremento continuo con orientación a ecuaciones directas
con énfasis en ecuaciones diferenciales DSL/90, MIMIC, BHSL, DIHYSYS y
S/360 CSMP; Simulación de incremento continuo con simuladores orientados a
bloques con énfasis en ecuaciones diferenciales MIDAS, PACTOLUS, SCADS,
MADBLOC, COBLOC y 1130 CSMP; Simulación de incremento continuo con
simuladores orientados a bloques con énfasis en ecuaciones de diferencias
DYNAMO, DYSMAP 2; Simulación de incremento discreto con orientación a
actividades CSL, CLP, GSP, GERT, FORSIM, ESP, MONTECODE y
MILITRAN; Simulación de incremento discreto con orientación a eventos
SIMSCRIPT, GASP, SIMCOM, SIMULATE y SIMPAC; Simulación de
incremento discreto con orientación a procesos SIMULA, OPS, SLAM y SOL;
Simulación de incremento discreto con orientación a flujo de transacciones
GPSS y BOSS.

33
4.3 Casos prácticos de simulación

PAQUETES

Los paquetes son una versión depurada de los diferentes lenguajes de


propósito general y presentan algunas ventajas sobre los lenguajes de
programación generales:

Reducción de la tarea de programación.

Definición exacta del sistema.

Flexibilización mayor para cambios.

Diferenciación mejor de las entidades que conforman el sistema.

Relación estrecha entre las entidades del sistema.

Los paquetes de mayor utilización en Simulación son:

EXCEL, STELLA, SIMAN, RISK, STORM, LINDO, CRYSTAL BALL, QSB,


MOR/DS, OR/MS, BEER GAME, GREENPACE, SIMULACION, TAYLOR II,
CAPRE, SIMNET II, PROMODEL, ITHINK, URBAN DYNAMICS y
POWERSIM.En Simulación Gerencial podemos citar: FISH BANK,
FINANACAT, BUGA-BUGA y MARKOPS, TREE PLAN entre otros.

5 Caso práctico

5.1 Caso de estudio: análisis, modelado y simulación de un sistema o


subsistema de servicios o productivo de una empresa para detectar las
mejoras posibles a realizar.

PROCESAMIENTO DE DATOS DE VIENTO (comparación entre datos


estadísticos y de simulación)

Distribución Probabilística de la Velocidad del Viento

El recurso eólico local es caracterizado por la probabilidad de las


diferentes velocidades de viento

Histograma de probabilidades de la velocidad de viento

Distribución de la densidad de probabilidad

Distribución de Rayleigh

34
Distribución de Weibull

Representación estadística del viento:

Dadas las características tan dispersas y aleatorias de la energía eólica,


es obvio que la única manera de estudiar si un emplazamiento es
adecuado o no, es utilizando la estadística. Para ello se recurre a la
representación de la velocidad del viento como una variable aleatoria con
una cierta función de distribución.

Normalmente se suele utilizar la distribución de Weibull; se trata de una


distribución de dos parámetros: un parámetro de escala c y un parámetro
factor de distribución de forma k.

La distribución estadística de las velocidades del viento varía de un lugar


a otro del globo, dependiendo de las condiciones climáticas locales, del
paisaje y de su superficie. La distribución de Weibull utilizada puede
variar tanto en la forma como en el valor medio.

FACTOR k DE DISTRIBUCIÓN DE FORMA.- La energía que aportaría el


viento si se desplazase con una velocidad igual a la media durante las
8760 horas del año, sería:

Mientras que la energía realmente disponible en el año es:

El factor de distribución de forma de energía eólica k, se define como la


relación entre la energía obtenida en un año Nanual , y la energía N que
se obtendría en ese año si la velocidad del viento se mantuviera
constante e igual a la velocidad media v , es decir:

En dos lugares en los que la velocidad media del viento <v> sea la misma,
se tendrá más energía disponible en aquel en que el factor de distribución
k sea mayor. El parámetro de forma k indica cómo de puntiaguda es la

35
distribución de velocidades del viento; si siempre tienden a estar
próximas a un cierto valor, la distribución tendrá un alto valor de k y será
muy puntiaguda.

Si los factores de distribución son k1 y k2 y las energías disponibles N1 y


N2, se tiene que:

En la mayoría de los casos los valores de k están comprendidos entre 1.3


y 4.3; por ello, cuando no se dispone de muchos datos suele aceptarse la
simplificación de hacer k = 2, que se conoce como distribución de
Rayleigh.

DISTRIBUCIÓN DE RAYLEIGH.- Con los datos disponibles de la velocidad


del viento en un determinado lugar, se puede encontrar la ecuación de
distribución de Rayleigh que describe la distribución de velocidades del
viento con una aproximación razonable dentro de ciertos límites, siendo
la velocidad media del mismo un parámetro a tener en cuenta, muy
característico; en la siguiente tabla se dan datos de la velocidad del
viento en cierta región:

36
Para velocidades del viento por debajo de 15 km/hora, la distribución de
Rayleigh tiene poca precisión, no siendo útil su aplicación en lugares con
una velocidad media del viento inferior a 13 km/hora. El área bajo
cualquier curva siempre vale la unidad, ya que la probabilidad de que el
viento sople a cualquiera de las velocidades, incluyendo el cero, debe ser del
100%.

La mitad del área está a la izquierda de la vertical que pasa por el máximo,
y el valor correspondiente es la mediana de la distribución, que significa
que la mitad del tiempo el viento soplará a menos de ese valor y la otra
mitad soplará a más de ese valor. La velocidad del viento media es el
promedio de las observaciones de la velocidad del viento que tendremos
en ese emplazamiento; se observa que esta distribución de las
velocidades del viento no es simétrica.

A veces las velocidades del viento serán muy altas, aunque muy raras,
siendo las velocidades del viento más comunes las correspondientes al
valor medio, que se conoce como valor modal de la distribución.

La distribución de Rayleigh es de la forma:

37
v y
Siendo: v la velocidad del viento en millas/seg, (1 milla ≈ 1. 6095 km)
la velocidad media del viento.

Esta ecuación proporciona el número total de horas al año que se prevé


pueda soplar el viento a la velocidad media del lugar. Su representación
gráfica se presenta en la Figura, en la que se ha considerado
 el tiempo
sobre el eje de ordenadas en %, y la velocidad del viento v en millas por
hora sobre el eje de abscisas. La energía que lleva el viento es
proporcional al cubo de su velocidad, por lo que una velocidad más
elevada implica un transporte energético de mayor densidad.

38
Comparación de la energía disponible con la curva de Rayleigh
correspondiente.

Si a los resultados obtenidos en un lugar determinado, por ejemplo con


una velocidad media de 26 km por hora (16,2 mph), (ver Fig de
distribución de Rayleigh), se superpone una gráfica de Rayleigh, se
observa que la distribución de Rayleigh no coincide con la curva de
distribución del viento en el lugar indicado, lo que indica que no se
pueden sustituir los datos obtenidos de la distribución de Rayleigh como
medidas actualizadas y propias de la velocidad del viento del lugar, pero
sí pueden servir como una aproximación bastante razonable cuando los
únicos datos de que se dispone sean los promedios anuales de la
velocidad del viento.

Para una velocidad media del viento de 22,5 km/hora (14 mph), se puede
esperar que el mismo sople a 37 km/hora (23) mph, durante un 2,2% del
tiempo, ó 194 horas al año. Para una velocidad media del viento de 10
mph, soplaría a 23 mph durante un 0,6% del tiempo ó 53 horas al año (ver
figura de comparación de curvas).

La función de densidad de probabilidad de la distribución de la velocidad


del viento de Rayleigh es de la forma:

Esta distribución se ajusta haciendo coincidir  la velocidad media del


viento en el lugar en estudio, con la velocidad v . El empleo de un método
más elaborado requiere disponer de más datos, caso en el que se
utilizaría la distribución general de Weibull.

39
Distribución de Densidad de Probabilidades de Rayleigh

• Parámetros de distribución de Rayleigh


– U = Promedio de velocidad de viento
– U = Velocidad de viento
– p(U) = Probabilidad de ocurrencia de la velocidad de viento U

π U   π  U 2 
p(U )=  2  exp−   
2 U   4  U  

• El único parámetro es la velocidad de viento

40
DISTRIBUCIÓN DE WEIBULL.- La función de densidad de probabilidad de
la distribución de la velocidad del viento f(v) es de la forma:

Se trata de una distribución de dos parámetros en la que c es el


parámetro de escala y k es el factor de forma, que indican las
características promediadas del viento en el emplazamiento; un valor muy
utilizado es k = 2 (distribución de Rayleigh).

La velocidad media del viento es el primer momento de la función de


densidad (n=1) siendo por tanto:

Si se multiplica la distribución de la velocidad del viento f(v) por la


energía del viento Nviento se obtiene la distribución de energía del viento;
la energía total E del viento es:

41
En determinadas situaciones, como en lugares tierra adentro, la energía
calculada por la distribución de Weibull es un 10% superior a la calculada
experimentalmente.

Para determinar los parámetros c de escala y k de forma de la


distribución, se puede utilizar una aproximación de mínimos cuadrados;
partiendo de la función de distribución de Weibull en la forma:

y tomando logaritmos dos veces se puede poner en la forma:

Distribución de energía disponible para una velocidad media del viento

42
5.2 Validación del sistema de simulación

En la Tabla se indican unas velocidades medias anuales de viento


(correspondientes a un parque eólico situado a 950 metros de altitud, con
unas pérdidas del 8% por sombras, disponibilidad y transformación), que
de acuerdo con la distribución estadística de Weibull, permiten conseguir
la generación de electricidad en las horas de funcionamiento indicadas.

Velocidad del viento y horas de funcionamiento

Distribución de Densidad de Probabilidades de Weibull

• Parámetros de la distribución de Weibull


– c = Factor de escala relatecionado a la velocidad media
– k = Factor de forma relacionado a la desviación estándar de
los datos
• Los sitios se caracterizan en general por medio de los parámetros
de Weibull

 k  U 
k −1
  U k 
p(U )=   exp−   
 c  c    c  

43
44
Referencias

“John von Neumann y los orígenes de la computación moderna” de William


Aspray – Gedisa Editorial – 1992

Azarang, M. R. y García Dunna, E. Simulación y Análisis de Modelos


Estocásticos México. McGrawHill/Interamericana 1996.

Pardo Leandro, Valdez Teofilo. Simulación Aplicaciones Practicas en la


empresa. Ediciones Diaz Santos. 1987.

45

También podría gustarte