0% encontró este documento útil (0 votos)
70 vistas18 páginas

Redes Neuronales en Termodinámica

Este documento presenta un resumen de un artículo sobre la aplicación de redes neuronales artificiales para predecir propiedades termodinámicas. El artículo describe cómo se diseñó una red neuronal multicapa para predecir el equilibrio de fases de mezclas binarias, entrenada con datos experimentales. La red neuronal logró predecir la fugacidad con una divergencia menor al 0.05% en comparación con la ecuación de estado PC-SAFT y los datos experimentales.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Temas abordados

  • comparación de datos,
  • tipos de redes neuronales,
  • ajuste de parámetros,
  • sobreaprendizaje,
  • técnicas de ajuste,
  • PC-SAFT,
  • mezclas binarias,
  • inteligencia artificial,
  • datos experimentales,
  • fugacidad
0% encontró este documento útil (0 votos)
70 vistas18 páginas

Redes Neuronales en Termodinámica

Este documento presenta un resumen de un artículo sobre la aplicación de redes neuronales artificiales para predecir propiedades termodinámicas. El artículo describe cómo se diseñó una red neuronal multicapa para predecir el equilibrio de fases de mezclas binarias, entrenada con datos experimentales. La red neuronal logró predecir la fugacidad con una divergencia menor al 0.05% en comparación con la ecuación de estado PC-SAFT y los datos experimentales.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Temas abordados

  • comparación de datos,
  • tipos de redes neuronales,
  • ajuste de parámetros,
  • sobreaprendizaje,
  • técnicas de ajuste,
  • PC-SAFT,
  • mezclas binarias,
  • inteligencia artificial,
  • datos experimentales,
  • fugacidad

Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

APLICACIÓN DE REDES NEURONALES PARA


LA PREDICCIÓN DE PROPIEDADES
TERMODINÁMICAS

Micael Gerardo Bravo Sánchez


Instituto Tecnológico de Celaya
[email protected]

Marco Carlo Guerrero Soto


Instituto Tecnológico de Celaya

Juan José Martínez Nolasco


Instituto Tecnológico de Celaya

Nallely Rodríguez Trejo


Instituto Tecnológico de Celaya

Resumen

En los últimos años la necesidad de contar con información experimental confiable para
el diseño y la optimización de procesos industriales ha tenido una creciente demanda.
Los equipos de medición son extremadamente caros y requieren de personal técnico
calificado para su manipulación. Por lo cual, se han dirigido esfuerzos a la simulación de
propiedades empleando diferentes metodologías y herramientas. En este trabajo se
presenta la aplicación de las redes neuronales para la predicción de propiedades
termodinámicas. Esta investigación en particular se centra en la predicción de equilibrio
de fases. La red neuronal que se diseño es una red de retropropagación multicapa
(backpropagation multicap) programada en Matlab. El entrenamiento fue realizado por
medio de Levenberg-Marquardt (trainlm), empleado datos de equilibrio de fases de
mezclas binarias de n-alcanos + n-alcoholes, y evaluando la divergencia entre los datos

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~456~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

predecidos por la red neuronal y los datos experimentales. La propiedad termodinámica


que se evalúo fue la fugacidad, calculada a partir de la ecuación de PC-SAFT. La
divergencia entre las predicciones de la red neuronal y la ecuación de estado PC-SAFT
fue de 0.05%. Y la divergencia entre las predicciones de la red neuronal y los datos
experimentales fue menor al 0.05%.

Palabra(s) Clave(s): Sustancias, Redes, Error, Ecuación.

1. Introducción

Las redes de neuronas artificiales (denominadas habitualmente como RNA o


en inglés como: "ANN") son un paradigma de aprendizaje y procesamiento automático
inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de
un sistema de interconexión de neuronas que colaboran entre sí para producir un
estímulo de salida.

Las redes neuronales artificiales son un conjunto de técnicas pertenecientes al campo de


la inteligencia artificial. Su estructura consiste en una red formada por nodos (o neuronas)
y conexiones, razón por la cual se asemejan al cerebro de los seres humanos, del cual
procede su nombre. Las redes neuronales son de aplicación en diversidad de problemas
de reconocimiento de patrones y de aproximación de funciones, debido a su flexibilidad
y facilidad de uso.

Funcionamiento de una red neuronal

Una red neuronal es capaz de detectar relaciones complejas y no lineales entre variables,
a partir de unidades sencillas como las neuronas, al disponer muchas de estas unidades
en paralelo. Las variables se dividen en variables de entrada y de salida, relacionadas
por algún tipo de correlación o dependencia (no necesariamente causa-efecto). También

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~457~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

es posible que la salida sea la clasificación de las variables de entrada en diferentes


grupos.

Las neuronas se pueden disponer en diferentes capas. Las redes neuronales más
sencillas constan de una capa de entrada, una capa de neuronas o capa oculta, y una
capa de salida (Figura 1).

Figura 1. Ejemplo de red neuronal con una capa oculta.

El funcionamiento de una neurona consiste en la transformación de los valores de las


entradas a través de las conexiones, en una salida. La salida se obtiene a partir de una
función de propagación, una función de activación, y una función de transferencia (Figura
2).

Figura 2. Funciones de transferencia.

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~458~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

• La función de propagación más común consiste en el sumatorio de todas las


entradas multiplicadas por los pesos de las conexiones, más un valor de sesgo o
“bias”.
• La función de activación, en caso de que exista, activa o desactiva la salida de
esta neurona.
• La función de transferencia se aplica al resultado de la función de propagación y
normalmente consiste en una función de salida acotada como la sigmoidea (logsig)
[0,1], o la tangente hiperbólica (tansig) [-1,1]. Otras funciones de transferencia
pueden ser una función lineal (purelin) [-∞, +∞], base radial (radbas) [0,1] o una
función de discriminación (hardlim) [0,1].

Tipos de redes neuronales

Los criterios más importantes para clasificar las redes neuronales son:

• Según el tipo de conexiones:


o Redes de propagación hacia delante (feed-forward), donde las conexiones van
en un solo sentido desde la capa de entrada hacia la capa de salida.
o Redes recurrentes, donde las conexiones pueden realizar ciclos.
• Según el tipo de aprendizaje:
o Aprendizaje supervisado. Los datos (o entradas) tienen una respuesta
conocida (o salida), con la cual se ajusta o entrena la red neuronal.
o Aprendizaje no supervisado o autoorganizado. Los datos son solamente
entradas. Son redes empleadas fundamentalmente para clasificación y
reconocimiento de patrones.

Estas páginas se centrarán en la aplicación de redes neuronales de propagación hacia


adelante, con aprendizaje supervisado, empleadas en la aproximación de funciones.

Entrenamiento de la red neuronal

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~459~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

Dada una estructura y tamaño de la red neuronal, se procede al entrenamiento de la red.


El entrenamiento o aprendizaje, cuyo objetivo es que la red neuronal sea capaz de
reproducir el comportamiento subyacente en los datos aportados, consiste básicamente
en la minimización de una función de coste o error, lo que equivale a que la salida de la
red, se aproxima a la salida en los datos. La función de coste más común es la de
promedio de errores al cuadrado (MSE).

Para la optimización de la red neuronal, se emplean diferentes métodos de ajuste de


parámetros de la red (pesos de las conexiones y sesgo de las neuronas), a partir de unos
valores o bien aleatorios, o bien predefinido (inicialización de la red). Algunos ejemplos
de los métodos de ajuste son los de tipo gradiente o los algoritmos genéticos:

• Los métodos de tipo gradiente calculan la variación del error al variar cada uno de
los parámetros (a modo de derivada multidimensional), y luego modifican todos
los parámetros de la red neuronal obteniendo un error menor. Se puede decir que
es una búsqueda en serie de la solución o mínimo global.
• Los métodos basados en algoritmos genéticos, consisten en la generación de un
determinado número de redes o hijos a través de mutaciones en los parámetros,
evaluando el error de la red para cada uno de ellos. Los hijos con menor error,
tienen mayor probabilidad de convertirse en padres de nuevas redes, mientras que
los hijos con mayor error desaparecen. Se trata de una búsqueda en paralelo de
la solución.
• Ambos métodos son métodos iterativos, que se repiten hasta cumplir alguno de
los diferentes criterios de parada. Algunos ejemplos de los criterios de parada son
el número de iteraciones, la obtención de un error mínimo, o un tiempo de
ejecución. En cualquier caso, generalmente es difícil asegurar que la solución
obtenida no es un mínimo local.

Sobreaprendizaje

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~460~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

Un posible problema del proceso de entrenamiento, es el sobreaprendizaje o pérdida de


generalización. Dado un conjunto de datos, es posible que la red neuronal reproduzca
muy bien el comportamiento de dichos datos, pero no el de datos nuevos. Este problema
se acentúa en el caso de que los datos tengan ruido o errores.

Otros tipos de aproximaciones de funciones como por ejemplo la interpolación con


polinomios, también pueden aproximar correctamente los datos con los que se realiza el
ajuste, mientras que aproximan de modo erróneo datos nuevos no empleados en el
ajuste.

Existen diferentes modos de evitar el sobreaprendizaje. El primero de ellos sería obtener


más datos para el entrenamiento, aunque esto no es siempre posible. Otra posibilidad es
reducir el tamaño de la red (menor número de parámetros), de modo que la red neuronal
es menos flexible y más robusta frente al ruido, aunque si se reduce demasiado, puede
que no sea capaz de aprender o aproximar la función objetivo. Dotar a la red neuronal de
suficientes parámetros para que sea capaz de aprender y evitar el sobreaprendizaje, es
el principal aspecto a tener en cuenta en el dimensionamiento de una red neuronal.

Datos de entrenamiento, validación y prueba

Para controlar si una red neuronal ha sobreaprendido, se dividen los datos en diferentes
grupos:

• Datos de entrenamiento. Son los datos empleados en el ajuste de los parámetros


de la red neuronal. Han de ser representativos del total de datos, por lo que
normalmente se seleccionan aleatoriamente.
• Datos de validación. Se emplean después de cada iteración en el proceso de
entrenamiento, para comprobar si se produce el sobreaprendizaje.
• Datos de test. Sólo se emplean una vez finalizado el entrenamiento.

La división de los datos es normalmente un 80% de datos de entrenamiento, un 10% de


validación y un 10% de prueba, aunque la elección de dichos porcentajes depende del

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~461~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

número de datos disponible y de su distribución. Dicha división se puede realizar con


algún criterio de modo que los datos de cada grupo sean representativos, o de modo
aleatorio.

Técnicas para evitar la pérdida de generalización (Early-stopping)

A partir del empleo de la división de datos en los grupos mencionados, es posible aplicar
una técnica para evitar el sobreaprendizaje: early-stopping. Durante el proceso iterativo
de optimización de los parámetros de la red, se comparan los errores obtenidos con los
datos de entrenamiento y con los datos de validación. En el caso de que durante
sucesivas iteraciones, el error con los datos de entrenamientos disminuya, mientras que
el error con los datos de validación aumente, se detiene el proceso de ajuste, como un
criterio de parada adicional (Figura 3).

Figura 3. Representación de la evolución de errores de entrenamiento, validación y


prueba. Parada por early-stopping.

Simulación

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~462~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

Una vez entrenada una red neuronal, se puede comprobar el funcionamiento de la misma,
aportando datos de entrada y obteniendo datos de salida. Este proceso se llama
simulación, ya que los datos de entrada pueden ser datos empleados en el
entrenamiento, o datos nuevos de los cuales se desea tener una predicción.

Un primer paso consiste en la comparación de los datos de salida (o targets) empleados


en el entrenamiento, con los datos simulados por la red neuronal. Esta comparación se
llama validación cruzada, y permite representar gráficamente la bondad del ajuste de la
red neuronal. Si el ajuste fuera perfecto, la representación de dichos valores se situaría
sobre la recta y = x.

La validación cruzada se puede realizar para los datos de entrenamiento, validación,


prueba o todos los datos, de modo que se puede comprobar si se ha producido
sobreaprendizaje o no (Figura 4).

Figura 4. Validación cruzada de datos de entrenamiento, validación, test y total de datos.

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~463~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

Si en lugar de emplear datos existentes, se aplica la red neuronal a datos nuevos, se


dispone de un laboratorio virtual con el que predecir el comportamiento del proceso
aprendido por la red neuronal.

Ventajas de las redes neuronales

1. Robustez frente al ruido en datos de entrada y salida.


2. Independencia entre complejidad del problema y dimensionamiento de la red.
3. Rapidez de ajuste y simulación.
4. Laboratorio virtual, curvas de diseño o dimensionamiento.

Desventajas de las redes neuronales

1. Mínimos locales.
2. Sobreaprendizaje o pérdida de generalización.
3. Criterios de dimensionamiento de la red neuronal arbitrarios.
4. Comportamiento de caja negra.
5. La inicialización aleatoria de los pesos y bias, y la división aleatoria de datos en
entrenamiento, validación y prueba, dan lugar a soluciones diferentes (relacionado
con los mínimos locales).
6. No permiten la extrapolación [1].

Ecuación PC-SAFT

Los datos obtenidos con la simulación de la red neuronal de la propiedad termodinámica


de equilibrio de fases calculada empleando la ecuación PC-SAFT a partir de datos
experimentales de equilibrio de fases.

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~464~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

Las propiedades de saturación necesarias para estimar las propiedades termodinámicas


derivativas se obtuvieron empleando la ecuación de estado PC-SAFT. Se utiliza esta
ecuación de estado para reducir las inconsistencias termodinámicas presentes en el uso
de otras metodologías para la predicción de propiedades de saturación. La ecuación PC-
SAFT, tiene dos términos, uno para la contribución de la cadena de esfera dura de
referencia y otra relacionada con la perturbación o dispersión [2].

𝑎𝑎�𝑟𝑟𝑟𝑟𝑟𝑟 = 𝑎𝑎�ℎ𝑐𝑐 + 𝑎𝑎�𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 (1)

Dónde 𝑎𝑎� = 𝐴𝐴/𝑁𝑁𝑁𝑁𝑁𝑁 y T, A, N y k son: la temperatura, energía libre de Helmholtz, número


total de moléculas y la constante de Boltzmann, respectivamente. La contribución de la
esfera dura se basa en la teoría de la perturbación termodinámica de primer orden y es
definida como:

� 𝑎𝑎�ℎ𝑠𝑠 − � 𝑥𝑥𝑖𝑖 (𝑚𝑚𝑖𝑖 − 1) 𝑙𝑙𝑙𝑙�𝑔𝑔𝑖𝑖𝑖𝑖ℎ𝑠𝑠 �(𝜎𝜎𝑖𝑖𝑖𝑖 )


𝑎𝑎�ℎ𝑐𝑐 − 𝑎𝑎�𝑖𝑖𝑖𝑖𝑖𝑖𝑎𝑎𝑎𝑎 = 𝑚𝑚 (2)
𝑖𝑖

dónde x, m y ghs son la fracción molar de las cadenas, número de segmentos en la cadena
y la función de distribución par radial para segmentos. Los efectos del sistema de esfera
dura incluyen el número de densidad total de moléculas y el diámetro de segmento
dependiente de la temperatura. La contribución debido a la perturbación está
representada por:

𝑎𝑎�𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 = 𝑎𝑎�1 + 𝑎𝑎�2 (3)

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~465~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

Dónde 𝑎𝑎�1 , 𝑎𝑎�2 , contienen las relaciones adoptadas para las reglas de mezcla de un fluido
puro y extienden los términos de la perturbación a mezclas. Reglas de combinación
convencionales son también usadas para determinar los términos de cruzamiento:

𝜎𝜎𝑖𝑖𝑖𝑖 = (1/2)�𝜎𝜎𝑖𝑖𝑖𝑖 + 𝜎𝜎𝑗𝑗𝑗𝑗 � (4)

𝜀𝜀𝑖𝑖𝑖𝑖 = �𝜀𝜀𝑖𝑖𝑖𝑖 𝜀𝜀𝑗𝑗𝑗𝑗 �1 − +𝑘𝑘𝑖𝑖𝑖𝑖 � (5)

Dónde σ, ε y k ij son el diámetro del segmento, parámetro de atracción y el parámetros


de interacción binario, respectivamente. Los parámetros del componente puro de la EDO
PC-SAFT son m, σ y ε [2].

Por lo cual, en esta investigación se estudiará el uso de redes neuronales para la


predicción de propiedades termodinámica en mezclas binarias de n-Alcano + n-alcohol.

2. Desarrollo

Una red neuronal se compone de neuronas (elemento básico) que se agrupan en varios
niveles o capas, las neuronas se encuentran interconectadas lo que por analogía del
sistema nervioso sería la sinapsis. Esta estructura cuenta con diversas entradas y salidas,
las neuronas son entrenadas para proporcionar valores de salida de manera deseada a
partir de los datos o estímulos introducidos a la red. Las interconexiones entre neuronas
están relacionadas por los pesos, umbrales y señales de activación. Los pesos
representan la experiencia que va adquiriendo la red, esto permite a la red identificar
patrones que no tienen relevancia dentro del comportamiento global que está capturando
la red. Los umbrales representan el aporte de cada neurona a las neuronas de la siguiente

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~466~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

capa y de esta forma a toda la red. El umbral es independiente de neuronas de capas


anteriores ya que no está conectado a ninguna neurona y da estabilidad a la red en el
proceso de entrenamiento.

Las neuronas se encuentran distribuidas en una red neuronal por medio de las capas o
niveles, estas capas pueden ser de alimentación donde es introducida la información a la
red, capas ocultas donde la red captura el comportamiento no lineal y realiza la
optimización del sistema y de salida que es hacia donde converge la solución del sistema.
La conectividad entre neuronas es un aspecto importante en el procesamiento de la
información que realizan las redes neuronales, es establecida de manera que cada
neurona en una capa distribuye su respuesta a todas las neuronas de la capa superior
inmediata.

En una RNA con alimentación hacia adelante la información fluye desde la capa de
alimentación a través de las capas de mando superior hasta la capa de salida. La función
de activación para neuronas en las capas de entrada y de salida es lineal y para capas
ocultas se ocupa una función no lineal.

Base de datos experimentales

Simulación compara con información experimental de equilibrio de fases obtenida de


artículos científicos [3].

Tipología del modelo de red neuronal

Se diseñó un modelo neuronal para la obtención de fugacidades. El cual consiste en un


conjunto de elementos de cálculo llamados neuronas (por su similitud con las neuronas
biológicas) conectadas en serie y paralelo. La conexión de varias neuronas en paralelo
conforman una capa y varias de estas últimas puede conectarse en serie para formar una
RNA. Las RNA realizan sus cálculos empleando funciones no lineales y factores simples

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~467~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

de multiplicación, llamados pesos, los que están asociados con un enlace entre dos
neuronas.

Estas estructuras tienen la capacidad de “aprender” relaciones complejas no lineales


entre entradas y salidas a partir de la experiencia vivida mediante un proceso denominado
entrenamiento, durante el cual son ajustados los pesos hasta que el conjunto de entrada
produzca las salidas deseadas. Existen varios tipos de RNA adecuadas para diferentes
aplicaciones. Los modelos desarrollados se basan en una red multicapa con propagación
hacia adelante con algoritmo de aprendizaje con retropropagación. Este tipo de red fue
escogida dadas las posibilidades que brinda y su amplio uso en un gran número de
aplicaciones. Para la modelación se realizó por medio de programación de código dentro
del software Matlab. La simulación se realizó por medio de Simulink dentro del software
Matlab (Figura 5).

Figura 5. Red neuronal creada por Simulink.

3. Resultados

A continuación se presentan los resultados de fugacidades en las siguientes mezclas


binarias n-Alcano + n-Alcohol (Figuras 6 – 12).

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~468~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

Figura 6. Comparación de fugacidades entre la red neuronal vs datos experimentales n-


Decano + n-Decanol.

A continuación se analiza el error porcentual relativo entre la red neuronal y los datos
experimentales.

Figura 7. Error relativo neuronal vs datos experimentales n-Decano + n-Decanol.

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~469~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

Figura 8. Comparación de fugacidades entre la red neuronal vs datos experimentales n-


Nonano + n-Nonanol.

A continuación se analiza el error porcentual relativo entre la red neuronal y los datos
experimentales.

Figura 9. Error relativo neuronal vs datos experimentales n-Nonano + n-Nonanol.

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~470~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

Figura 10. Comparación de fugacidades entre la red neuronal vs datos experimentales n-


Octano + n-Octanol.

A continuación se analiza el error porcentual relativo entre la red neuronal y los datos
experimentales.

Figura 11. Error relativo neuronal vs datos experimentales n-Octano + n-Octanol.

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~471~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

Figura 12. Comparación de fugacidades entre la red neuronal vs datos experimentales n-


Butano + n-Butanol.

A continuación se analiza el error porcentual relativo entre la red neuronal y los datos
experimentales.

Figura 12. Error relativo neuronal vs datos experimentales n-Octano + n-Octanol.

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~472~
Pistas Educativas, No. 113, junio 2015. México, Instituto Tecnológico de Celaya.

4. Conclusiones

En este trabajo de investigación se desarrollo un código en Matlab que integra cada una
de las zonas de las Redes Neuronales (RNA) para la simulación y evaluación de
propiedades termodinámicas de sistemas binaries n-Alcano + n-Alcohol con una
divergencia entre las predicciones de la red neuronal y la ecuación de estado PC-SAFT
menor al 0.05%; y un divergencia entre las predicciones de la red neuronal y los datos
experimentales menor al 0.05%. Lo cual demuestra la fiabilidad de usar redes neuronales
para la predicción de propiedades termodinámicas.

5. Referencias

[1] http://www.mathworks.com/access/helpdesk/help/pdf_doc/nnet/nnet.pdf MATLAB


Neural Network Toolbox

[2] Gross J.; Sadowski G.; “Application of the Perturbed-Chain SAFT Equation of State
to Associating Systems” Ind. Eng. Chem. Res. 41, 5510, 2002.

[3] Barker J.A.; Henderson D.; “Perturbation Theory and Equation of State for Fluids:
The Square-Well Potential, J. Chem. Phys., 47, 2856-2861, 1967.

[4] Chapman, W.G.; Gubbins, K.E.; Jackson, G.; Radosz, M., “New Reference
Equation of State for Associating Liquids.”, American Chemical Society, 29, 1709-
1721, 1990.

[5] Currás M.; Vijande J.; Piñeiro M. M.; Salgado J.; García J.; “Behaviour of the
Environmentally Compatible Absorbents bminBF4 and eminBF4 with TFE:
Experimental Densities at High Pressures” 24th European Symposium on Applied
Thermodynamics, Santiago de Compostela, 2009.

[6] Gross J.; Sadowski G.; “Application of the Perturbed-Chain SAFT Equation of State
to Associating Systems” Ind. Eng. Chem. Res. 41, 5510, 2002.

Pistas Educativas Año XXXV - ISSN 1405-1249


Certificado de Licitud de Título 6216; Certificado de Licitud de Contenido 4777; Expediente de Reserva 6 98 92

~473~

Common questions

Con tecnología de IA

Neural networks model nonlinear relationships in thermodynamics more effectively than traditional linear models due to their ability to layer multiple neurons using various activation functions, which introduce non-linearity into the model. Each layer of the network can capture different facets of the input-output relationship, allowing the network to approximate virtually any continuous function. Unlike linear models, which assume additive and proportional relationships, neural networks adapt to complex interactions through weighted connections and biases, thus providing more accurate and holistic models of the intricate dependencies typically found in thermodynamic data .

Neural networks are optimized during training using methodologies such as gradient-based methods and genetic algorithms. Gradient-based methods, like those using backpropagation, involve calculating the error's gradient with respect to each weight and iteratively updating weights to minimize this error, effectively performing a serial search for a global minimum. Genetic algorithms, on the other hand, generate multiple network configurations through parameter mutations, selecting and iterating those that perform best based on error minimization, representing a parallel search approach . These methods can differ significantly in computational demand and sensitivity to local minima, with genetic algorithms generally offering more diverse search capabilities at the cost of increased complexity .

Advantages of using neural networks for thermodynamic simulations include robustness to noisy input and output data, independence from the complexity of the problem, rapid adjustment and simulation capabilities, and the ability to function as a virtual laboratory for predictions . However, neural networks also have disadvantages such as the potential for overfitting or loss of generalization, arbitrary criteria for network dimensioning leading to variability in results, risk of settling in local minima, and the black-box nature that makes interpretations of internal processes difficult. Additionally, neural networks typically struggle with extrapolating predictions beyond the range of the training data .

Activation functions in neural networks determine the output of neurons and introduce non-linearity into the model, enabling the network to capture complex relationships between variables. In multi-layer networks, different activation functions are used in different layers—linear functions for input and output layers and nonlinear for hidden layers. Common nonlinear activation functions include the sigmoid and hyperbolic tangent, which constrain outputs and help capture a wide range of inputs more effectively. These functions help neural networks approximate complex real-world scenarios, which linear functions alone would struggle to model .

Dividing data into training, validation, and testing sets facilitates effective neural network training by providing separate datasets for different stages of the training process. The training set is used to fit the model, while the validation set is used to tune hyperparameters and adjust the model to prevent overfitting. The testing set evaluates the final model's ability to generalize to unseen data, ensuring robust performance. This division is typically 80% for training, and 10% each for validation and testing but can vary based on dataset size and requirements .

The backpropagation method is considered effective for training neural networks in predicting phase equilibrium due to its ability to efficiently adjust the weights of the network based on the error of the output with respect to the expected result. This adjustment is facilitated by the Levenberg-Marquardt algorithm, which optimizes the weights to minimize error divergence. Backpropagation allows the network to capture complex and nonlinear relationships in data, crucial for accurately modeling phase equilibrium which involves intricate thermodynamic interactions . The network achieved a prediction accuracy with less than a 0.05% divergence from experimental results and the PC-SAFT equation, highlighting the precision of this approach .

The quality of experimental data is critical in training neural networks for thermodynamic properties because it directly impacts the accuracy and reliability of the model's predictions. High-quality, representative data ensures that the neural network learns the true underlying patterns rather than noise or artifacts, which is vital for generalizing to new data. Inaccurate or noisy experimental data can lead to overfitting and reduced predictive power, as the neural network may learn these inaccuracies as part of the data structure, thus skewing results and diminishing model utility for phase equilibrium predictions .

Key factors to consider when avoiding overfitting in neural network training include splitting the available data into training, validation, and testing datasets, with a typical distribution of 80% training, 10% validation, and 10% testing. Additional strategies involve using early-stopping techniques during training, whereby training is halted when the validation error begins to rise, even if training error continues to decrease. Adjusting the complexity of the model by reducing the number of parameters or layers can also help manage overfitting . Ensuring enough data is collected for training can alleviate overfitting, although it is not always feasible .

Early-stopping prevents overfitting by monitoring the error on a validation dataset during training and stopping the process when this error starts to increase, even if the training error continues to decrease. This indicates that the model is starting to fit the noise in the training dataset rather than generalizing from the underlying patterns. By using early-stopping, the model is more capable of maintaining generalization to unseen data, ensuring it performs well on both the training and validation datasets .

Neural networks enhance the prediction of thermodynamic properties by providing a flexible and robust alternative to traditional experimental methods, which can be costly and require technical expertise to operate. The specific neural network design employed—a backpropagation multilayer network programmed in Matlab—demonstrated a divergence of less than 0.05% when predicting phase equilibrium properties like fugacity, compared to both the PC-SAFT equation of state and experimental data . This level of accuracy indicates that neural networks can effectively simulate complex nonlinear relationships present in thermodynamic systems, which is often a limitation in traditional empirical approaches.

También podría gustarte