Original
Original
POR
ALVARADO FLORES, KENNY ANDERSON
BOLAÑOS MALDONADO, JACQUELINE ANDREA
MONTERROSA MONTERROZA, DANIELA GISSELLE
RAMIREZ DELGADO, KELLY
OCTUBRE, 2023
ANTIGUO CUSCATLÁN, EL SALVADOR, C.A.
RECTOR
ANDREU OLIVA DE LA ESPERANZA, S.J.
SECRETARIA GENERAL
LIDIA GABRIELA BOLAÑOS TEODORO
LECTOR
GUSTAVO ADOLFO MOZ GALDÁMEZ
RESUMEN
La IA es el campo científico de la informática que se centra en la creación de programas y
mecanismos que pueden mostrar comportamientos considerados inteligentes. En otras palabras, es
el concepto según el cual “las máquinas piensan como seres humanos” (Peñarroya, 2020).
Normalmente, un sistema de IA es capaz de analizar datos en grandes cantidades (información
conocida como Big data), identificar patrones y tendencias y, por lo tanto, formular predicciones de
forma automática, con rapidez y precisión (SALESFORCE,2017). En esa lógica, se puede suponer
que la IA se diversifica en una serie de aplicaciones con las que se interactúa a diario dentro de las
cuales se pueden mencionar (Peñarroya, 2020):
Reconocimiento facial
Procesamiento del lenguaje natural
Navegación de vehículos
Vida artificial
Sistemas expertos
En este marco, la presente investigación consiste en la realización de una revisión bibliográfica para
reconocer aplicaciones actuales y potenciales de la IA y particularmente en el ML, en áreas de la
ingeniería química. El interés principal es evaluar la utilización de estas técnicas computacionales
en la predicción de propiedades y en la optimización de procesos. Adicionalmente, se buscaría
recopilar series de datos experimentales de diversos tipos para desarrollar algunos modelos sencillos
de predicción o de clasificación basados en el ML para propiedades fisicoquímicas de sustancias
puras o mezclas
i
En el Capítulo III, se hace una revisión bibliográfica donde se presentan diversos estudios para
identificar aplicaciones y métodos de la IA y ML, los cuales se van clasificando según el objetivo
de las investigaciones y sus resultados.
En el Capítulo IV, se presentan dos ejemplos sencillos de aplicación para ilustrar de forma simple y
concisa, algunas posibilidades de uso de ML para aplicaciones en docencia dentro de la
Universidad.
ii
ÍNDICE
RESUMEN............................................................................................................................................i
ÍNDICE DE FIGURAS........................................................................................................................v
ÍNDICE DE TABLAS........................................................................................................................vi
SIGLAS..............................................................................................................................................vii
ABREVIATURAS............................................................................................................................viii
NOMENCLATURA............................................................................................................................x
CAPÍTULO 1. INTRODUCCIÓN.......................................................................................................1
1.1. Planteamiento del problema........................................................................................................1
1.2. Objetivos.....................................................................................................................................2
1.2.1. Objetivo general.........................................................................................................................2
1.2.2. Objetivos específicos.................................................................................................................2
1.3. Límites y alcances....................................................................................................................2
1.4. Antecedentes............................................................................................................................2
CAPÍTULO 2. MARCO TEÓRICO....................................................................................................7
2.1. Historia de la IA.......................................................................................................................7
2.1.1. Origen de la IA.........................................................................................................................7
2.1.2. Evolución de la IA...................................................................................................................8
a) Etapa primaria (1956-1970).....................................................................................................8
b) Etapa de prototipo (1971-1981)...............................................................................................8
c) Etapa de difusión industrial (1981-Actualidad).......................................................................9
2.2. La IA hoy en día.......................................................................................................................9
2.2.1. Año clave para la IA 2025......................................................................................................10
2.3. Clasificación de la IA.............................................................................................................10
2.4. Modelos de la IA....................................................................................................................10
2.4.1. Sistemas que piensan como humanos....................................................................................10
2.4.2. Sistemas que actúan como humanos......................................................................................10
2.4.3. Sistemas que piensan racionalmente......................................................................................11
2.4.4. Sistemas que actúan racionalmente........................................................................................11
2.5. Tecnologías y beneficios basadas en la IA.............................................................................11
2.6. Ramas de la IA......................................................................................................................12
2.6.1. Aprendizaje automático: Machine Learning (ML)...............................................................12
2.6.2. Redes neuronales: Neural Networks.....................................................................................12
a) Aprendizaje supervisado.......................................................................................................12
i
b) Aprendizaje no supervisado.....................................................................................................14
2.6.3. Aprendizaje profundo: Deep Learning....................................................................................14
2.7. Impactos de la IA....................................................................................................................15
2.7.1. Impacto de la IA en el sector económico...............................................................................15
2.7.2. Impacto de la IA en el sector social.......................................................................................15
2.7.3. Impacto de la IA en el sector de la salud................................................................................15
2.7.4. Impactos de la IA en el sector ambiental...............................................................................16
2.8. Aplicaciones generales de la IA y ML...................................................................................16
2.8.1. Aplicaciones en el campo de la ingeniería química...............................................................16
2.8.2. Aplicación en la investigación...............................................................................................18
2.8.3. Aplicaciones en el campo industrial.......................................................................................19
CAPÍTULO 3. REVISIÓN BIBLIOGRÁFICA.................................................................................22
3.1. Clasificación y análisis de temas.............................................................................................22
3.1.1. Predicción...............................................................................................................................22
3.1.2. Optimización..........................................................................................................................36
3.1.3. Educación...............................................................................................................................51
CAPÍTULO 4. EJEMPLO DE APLICACIÓN..................................................................................54
4.1. Presentación del método.........................................................................................................54
4.1.1. Clasificación de riesgos: Rombo NFPA 704...........................................................................54
4.1.2. Ejemplo de clasificación........................................................................................................57
CAPÍTULO 5. CONCLUSIONES Y RECOMENDACIONES........................................................61
5.1. Conclusiones............................................................................................................................61
5.2. Recomendaciones.....................................................................................................................62
REFERENCIAS.................................................................................................................................63
GLOSARIO........................................................................................................................................69
ANEXOS............................................................................................................................................71
Anexo A. Clasificación de temas revisión bibliográfica.................................................................A-1
A.1. Contenido de temas.................................................................................................................A-2
Anexo B. Codificación de ejemplos.................................................................................................B-1
B.1. Codificación ejemplo de clasificación....................................................................................B-2
ii
ÍNDICE DE FIGURAS
Figura 4.1. Diamante de peligro NFPA 704.......................................................................................54
Figura 4.2. Flujograma del desarrollo del ejemplo de clasificación. ……………………………….58
Figura 4.3. Gráfico de K vecino ajustado……………………………………………………………
60
i
ÍNDICE DE TABLAS
Tabla 4.1. Grado de peligro según los riesgos a la salud...................................................................55
Tabla 4.2. Riesgos de incendio según su inflamabilidad……………………………………………55
Tabla 4.3. Riesgo de incendio según la inestabilidad……………………………………………….56
Tabla 4.4. Riesgos específicos según su peligro especial……………………………………………
56
Tabla A.1. Clasificación de temas y su respectivo objetivo............................................................A-2
Tabla A.2. Tabla de análisis de correlaciones..................................................................................A-4
Tabla B.1. Extracción de base de datos de KNOVEL......................................................................B-2
ii
SIGLAS
ANN (Artificial neural network) redes neuronales artificiales
ANFIS (Adaptive neuro fuzzy inference system) sistema de inferencia neurodifuso adaptivo
DT (Decision tree) árboles de decisión
FIS (Fuzzy inference system) sistema de inferencia difusa
ML (Machine learning) aprendizaje automático
PIB Producto interno bruto
PDP (Parallel distributed processing) procesamiento distribuido paralelo
RF (Random forest) bosques aleatorios
RR (Regression ridge) cresta de la regresión
RNN (Recurrent neural network) red neuronal recurrente
STEM (Science, technology, engineering and mathematics) ciencia, tecnología, ingeniería
y matemáticas
STEAM (Science, technology, engineering, art and mathematics) ciencia, tecnología,
ingeniería, arte y matemáticas
iii
ABREVIATURAS
CCT (Continuous cooling transformation) diagrama de transformación por enfriamiento
continuo
CPE (Chemical product engineering) ingeniería de productos químicos
CLTE (Coefficient of linear thermal expansion) coeficiente de expansión térmica lineal
CT Conductividad térmica de la red
CTE (The common table expression) coeficiente de expansión o dilatación térmica
DCV (Double cross verification) doble verificación cruzada
DTI (Drug–target interaction) interacción fármaco-objetivo
FDM (Molten deposit modeling) modelado por depósito fundido
FMI (Fluorescence microscopic imaging) imágenes microscópicas de fluorescencia
GBDT (Gradient-boosted decision trees) árbol de decisión con impulso de gradiente
GPU (Graphics processing unit) unidad de procesamiento gráfico
HAZ (Heat-affected zone) zona de calentamiento
HSI (Hyperspectral imaging applications) espectrometría de imagen
KNN (K nearest neighbors) k vecinos más próximos
LSTM (Long short-term memory networks) redes de memoria a largo plazo
MARS (Adaptive multivariate spline regression) regresión adaptativa multivariante spline
MCTS (Monte carlo tree search) búsqueda de árbol de monte carlo
MLOps (Machine learning operations) operaciones de aprendizaje automático
MLR (Multiple linear regression) regresión lineal múltiple
MLPNN (Multiple-layer perceptron neural network) red neuronal de percepción multicapa
MLP (Multilayer perceptron) percepción multicapa
MIC (Maximum information coefficient) coeficiente de información máximo
MID-FTIR (Infrared spectrometry) espectrometría infrarroja
NFPA (National fire protection association) asociación nacional de protección contra el
fuego
NLP (Natural language processing) procesamiento de lenguaje natural
NRTL (Non-random two-liquid model) modelo no aleatorio de dos líquidos
PaaS (Platform as a service) plataforma como servicio
PCR (Polymerase chain reaction) reacción en cadena de polimerasa
QML (Quantum machine learning) aprendizaje automático cuántico
QPL (The qualified products list) unidad de procesamiento cuántico
iv
QSAR/QSPR (Quantitative structure-activity/property relationships) relaciones cuantitativas
estructura-actividad/propiedad.
RBF (Radial basis function) funciones de base radial
RL (Reinforcement learning) aprendizaje por refuerzo
RMI (Raman microscopic imaging) imágenes microscópicas Raman
SaaS (Software as a service) software como servicio
SA (Superficial area) área superficial
SRU (Repeating structural units) unidades estructurales repetidas
SVR (Support vector regression) vectores de soporte
SVC (Support vector classifier) clasificador de vectores de soporte
VL Vapor-líquido
VLL Vapor-líquido-líquido
WS (Wind speed) velocidad media horaria del viento
XGBoost (Extreme gradient boosting) gradiente impulsor extremo
v
NOMENCLATURA
mg Miligramo, unidad de Masa
wt Peso, magnitud física
vi
CAPÍTULO 1. INTRODUCCIÓN
La IA se puede definir como la capacidad de las máquinas para usar algoritmos, aprender datos
brindados por bases de datos y utilizar lo aprendido en la toma de decisiones siendo así acciones
similares a las que tendría un humano, con la diferencia de que los dispositivos basados en IA
tienen la ventaja de analizar volúmenes grandes de información sin la necesidad de tomar un
descanso ya que su capacidad de análisis es mayor. Por otro lado, se reduce el sesgo de error que
puede causar el ser humano al analizar grandes volúmenes de datos. La intención de los
ordenadores o los programas informáticos puedan tanto aprender como tomar decisiones es
particularmente importante y algo que hoy en día se ha vuelto un tema de interés teniéndose un
crecimiento exponencial con el tiempo, es por esto qué, los sistemas de IA se pueden realizar ahora
muchas de las tareas que antes estaban reservadas sólo a los humanos (Rouhiainen, 2018).
La IA representa hoy en día un avance tecnológico que comprende desde actividades cotidianas que
realizan los seres humanos desde el uso de GPS en los teléfonos móviles hasta optimizar tareas en
amplias áreas como las industrias. Ante ello, el siguiente apartado establece la delimitación del tema
para desarrollar la investigación.
1
1.2. Objetivos
1.2.1. Objetivo general
Desarrollar una revisión bibliográfica sobre las aplicaciones de la IA en general, y el aprendizaje
automático en particular, en campos de la ingeniería química en niveles académicos, de
investigación e industriales.
1
1.4. Antecedentes
El ML como rama de la IA, tiene como objetivo general, simular las capacidades del cerebro
humano y poder optimizarlas. Esto a partir de experiencias y datos previos que permiten crear
relaciones entre datos, elaborar diferentes predicciones e incluso entender el objetivo de un
procedimiento para poder optimizarlo. Desde la década de 1940-1950 se comienzan a determinar
dichos objetivos de simulación de la inteligencia humana y figuras como Alan Turing y John
McCarthy que fueron piezas fundamentales en el desarrollo de la IA aun siendo su tiempo de
investigación previo a dicha ciencia, estableciendo las bases para su desarrollo, gracias a que Turing
considerado el padre de la IA presenta mediante la computación y elaboración de algoritmos
proyectos que permitieron el avance en la informática de ese tiempo. En el parque de Bletchley
Turing lidero equipos encargados de descifrar mensajes ocultos por la maquina alemana Enigma,
mediante la elaboración de una computadora o mejor reconocida como una maquina
electromecánica llamada “Bombe” que permitió descifrar códigos mediante modelos de inferencia y
predicción. Esto es considerado uno de los principales hechos que marcan la IA, aunque para su
momento no había sido categorizada ni clasificada como una ciencia o estudio y el termino no había
sido identificado (elternativa, 2023).
Dentro de los principales hitos que marcan la era del nacimiento de la IA se tienen: (McCarthy,
2014):
Newell y Simón fueron los responsables del desarrollo del General problem solver
(Solucionador General de Problemas) en 1957, que se diseñó para imitar protocolos de
razonamiento humanos.
1
Entre 1952 y 1962, Arthur Samuel desarrolló el primer programa para juegos de damas, que
logró obtener suficiente pericia como para desafiar al campeón mundial, sus programas con
aprendizaje de máquina fueron responsables del incremento en el rendimiento de los jugadores
de damas.
En 1958, John McCarthy inventó el lenguaje de programación LISP, concebido para IA y con
un enfoque diferente al actual. Se trataba de un lenguaje para que los humanos pudieran
describir sus procedimientos a las máquinas.
Para el año 1986, James McClelland, David Rumelhart y el grupo de investigación PDP
(Procesamiento distribuido en paralelo) publicó una investigación que presentaba el uso de
modelos de redes neuronales para el aprendizaje automático en el libro: The PDP perspective
Parallel distributed processing, de la universidad de Cambridge, donde se presenta, cómo
dentro de cada modelo es necesario examinar muchas piezas de información y cómo están
relacionadas, aunque pueda que no haya relaciones identificadas explícitamente o sean
ambiguas, cada una tiene el potencial decisivo dentro del resultado de procesos.
Dando un salto al año 1997, se da el hito en el que Deep Blue, una computadora creada por
IBM a principio de los años 90´s, la cual era una herramienta con capacidad de competir en
ajedrez a nivel profesional, que se mantuvo con el objetivo de ir aprendiendo y mejorando sus
habilidades, hasta que pudo competir contra el campeón mundial de ajedrez Garry Kasparov, al
cual logró vencer gracias a la gran capacidad de retroalimentación de resultados y escenarios
que son almacenados en su memoria y pueden ser simulados instantáneamente, lo que le
permitió predecir el mejor curso de acción a partir de complejas combinaciones de
movimientos. Este ejemplo también se enfoca en cómo la computadora responde a datos que
están siendo constantemente incorporados y la capacidad de leerlos de forma directa, trabajando
en la capacidad de análisis de datos y mejora continua (ScienceDirect, 2023).
2
Aterrizando en los avances que ha representado la IA y el ML en la química e ingeniería, su
aplicabilidad y utilidad solo han ido aumentando. Por ejemplo, en la química computacional se tiene
que los algoritmos han sido utilizados por décadas en el campo de la química analítica, para la
calibración y el análisis multivariables. como la quimiometría, y otras técnicas de relaciones de
actividad estructural cuantitativa, utilizado en las prácticas estándar de farmacología e investigación
de componentes, con el único problema que estos métodos no han tenido muchos avances y siguen
siendo utilizados a lo largo del tiempo, esto debido a su habilidad de comprender los patrones de
bases de datos y poder encontrar correlaciones y la capacidad de transferir dicha información a otras
bases (Campbell & Hoane, 2002).
Otro ejemplo, de las aplicaciones que se han obtenido gracias a la IA ha sido la capacidad para
poder desarrollar descriptores transferibles entre distintos sistemas y propiedades químicas,
presentando resultados instrumentales que a menudo requieren transformaciones matemáticas para
hacerlos accesibles a los experimentadores humanos; los espectros IR complejos, por ejemplo, a
menudo contienen información extraña altamente correlacionada que puede reducirse para su uso en
curvas de calibración. Tradicionalmente, se utilizaban modelos lineales sencillos para extraer
información de distintos tipos de espectros, pero cada vez más se están adaptando métodos de ML
más avanzados a las herramientas del químico analítico para predecir mejor los resultados
esperados, aumentar la sensibilidad y descubrir nuevas perspectivas (Campbell & Hoane, 2002).
Gracias a ello en vez de cuantificar los sistemas químicos mediante métricas tradicionales como
átomos y enlaces, los descriptores de nueva generación adoptan una forma más versátil, mediante la
aproximación de los datos a partir de análisis previos como lo es el descriptor de la matriz de
Coulomb usado para representar especies químicas que requieren la misma información de un
sistema químico que la matriz de Hamilton: coordenadas atómicas y la carga nuclear de los átomos,
utilizado en la energía de atomización, polarizabilidad, energías orbitales de frontera molecular,
potencial de ionización, entre otras ( Kunz & Wilson , 2022).
Además, se tienen otros descriptores que ayudan a optimizar los procesos químicos como lo es el
Faber–Christensen–Huang–Lilienfeld (FCHL). Este descriptor es capaz de predecir con exactitud
una gran variedad de propiedades electrónicas y es mucho más robusto a la hora de predecir otras
regiones del espacio químico que cualquiera de sus predecesores (Kunz & Wilson, 2022).
3
Pero el ML y la IA no solo se quedan en la optimización para la obtención de un resultado o la
predicción de valores o coeficientes, como se ve reflejado en aplicaciones de la industria de
procesos químicos o físicos. También se tienen aplicaciones en el área de mantenimiento y control
de variables de producción, gracias a la capacidad de análisis de grandes volúmenes de datos que
además están continuamente actualizándose; y se tiene que encontrar relaciones entre sí (Nithin &
Hobbs, 2022). Esto para poder comprender el estado de un equipo y facilitar su gestión. En la
literatura se utilizan métodos como árboles de decisión de bosque aleatorio, redes neuronales
artificiales y máquinas de soporte vectorial para modelar sistemas de detección de fallos y
predicción de fiabilidad, considerando tanto datos de sensores como datos ingresados de forma
manual para equipos industriales como bombas, rodamientos, cajas de cambios, compresores de
aire, turbinas de gas, etc. En su estudio, Nithin & Hobbs, utilizan una SVM que encuentra híper
planos entre las bases de datos para auxiliar tomas de decisiones, para poder realizar acciones
correctas que buscan minimizar el coste de mantenimiento y de los errores (Nithin & Hobbs, 2022).
1
Para enfoques más recientes se tiene que la IA y métodos de ML han sido utilizados ante diferentes
situaciones, como lo fue la pandemia de COVID 19, siendo utilizados para poder hacer la diagnosis
de los escaneos CT, imágenes de rayos X y estudios en la creación de medicinas y vacunas contra el
COVID-19. Además, se utilizan métodos de IA en seguimiento de personal mediante el
reconocimiento facial, desinfección de áreas mediante el uso de herramientas computacionales
como lo son pantallas interactivas y drones, que permiten la automatización del mantenimiento de
áreas que fueran expuestas a COVID-19. Además, fue un auge para la incorporación de los
servicios a domicilio por robots y la creación de plataformas virtuales que pudieron apoyar en la
entrega de comida y medicinas para la población en tiempo de pandemia, que disminuyeron la
interacción entre personas, evitando así el contagio masivo y en cadena. (Chadaga & Prabhu,
2021).
En América Latina también existen estudios asociados a la IA y ML. Por ejemplo, Corvalán dentro
de uno de sus estudios presenta situaciones de áreas de trabajo y cómo se ven afectadas las
actividades diarias de las personas, debido a que las máquinas y algoritmos son cada vez más
capaces de igualar e incluso superar ampliamente múltiples y específicas habilidades que estaban
reservadas exclusivamente al cerebro, estas se ven representadas en las cifras de desempleo, en
donde América latina presenta un leve y lento aumento en la tasa de desempleo (Corvalán, 2018).
1
apartados para describir la IA. El primer apartado engloba la evolución socio-histórica, enfocado en
los principales usos y aplicaciones sociales. El segundo presenta las generalidades teóricas sobre la
IA y, por último, en el tercer apartado se presentan aplicaciones dentro de la ingeniería química y
temas asociados, presentándose a detalle conceptos, tipos y ramas en los que se divide el ML como
subcategoría de la IA.
2.1. Historia de la IA
A través de los años, el ser humano se ha preocupado por su capacidad de razonamiento y su
habilidad para analizar, planear y dar una solución a un problema. Desde ese entonces en paralelo
también se ha buscado la manera de crear sistemas para reproducir habilidades mentales que solo
poseen los humanos, y que de tal manera se pueda realizar de una manera más simple algunos
procesos. A lo largo de la historia, la IA se considera como una de las ramas de las ciencias de la
computación que se ocupa de construir sistemas que permiten exhibir un comportamiento cada vez
más inteligente (Alvarado M., 2015). A continuación, se detalla el origen y evolución de la IA.
2.1.1. Origen de la IA
Los orígenes de la IA están íntimamente vinculados a los de la computación. Grandes nombres de
las ciencias computacionales forjaron las condiciones para el surgimiento de esta rama. Durante las
décadas 30 y 40 del siglo XX, se publican los primeros trabajos que abordan de alguna manera la
IA (da Silva, 2021). El artículo “Números Calculables” publicado en 1936 por Alan Turing, donde
se establecen las bases teóricas de las ciencias de la computación. En este artículo, Turing introdujo
el concepto de “Máquina de Turing”. Además de formalizar la definición de algoritmo, las ideas
expuestas en la publicación son consideradas como precursoras de las computadoras digitales. Una
conclusión trascendental a la que arribó Turing con ayuda de su máquina es la de que existen
problemas que ninguna computadora puede resolver. Por tal demostración es considerado como el
padre de la teoría de la computabilidad.
2.1.2. Evolución de la IA
La evolución de la IA se da en tres etapas, presentadas a continuación:
2
a) Etapa primaria (1956-1970)
En la etapa primaria los investigadores que trabajaban en la línea de investigación cognitiva
produjeron trabajos dirigidos al desarrollo de algoritmos y de estrategias de búsqueda para la
solución de problemas. En su afán de alcanzar un modelo de representación del conocimiento
humano, crearon la técnica más importante de representación: las reglas de producción. Por otro
lado, los investigadores que formaban parte de la tendencia conexionista también produjeron
trabajos relevantes en esta primera etapa. Los investigadores de IA de abajo hacia arriba o
conexionismo, adoptan un enfoque opuesto y simulan redes de neuronas artificiales que son
similares a las neuronas del cerebro humano (Álvarez Corredera, 2023). Un ejemplo es el
perceptron, fue desarrollado por Frank Rosenblatt en 1959. Es una unidad neuronal artificial que se
puede entrenar mediante reglas de aprendizaje supervisado, no supervisado y por reforzamiento
(Casella, 2017).
En 1975 ve la luz la versión inicial de un lenguaje de programación lógica: prolog. Este período se
destaca también por el desarrollo en diversas áreas de importantes prototipos funcionales. Puff fue
un prototipo diseñado para auxiliar en el diagnóstico de enfermedades pulmonares. Prospector fue
creado para contribuir en la prospección geológica, mientras Dendral fue desarrollado para el
análisis de química orgánica. Estos y otros prototipos tuvieron éxito en los campos para los cuales
fueron diseñados (da Silva, 2021).
3
c) Etapa de difusión industrial (1981-Actualidad)
La etapa que transcurre entre 1981 y la actualidad ha sido denominada la etapa de difusión
industrial. Esto se debe al hecho de que los prototipos salen de los laboratorios y universidades para
entrar en el mundo de la producción y el mercado. En el contexto de esta especie de fiebre de
difusión de la IA, no se ha tenido el mismo entusiasmo para el financiamiento de la investigación
básica (Alvarado M., 2015).
En esta etapa se han desarrollado numerosos sistemas expertos en el área de la medicina como
DXplain, Cadet y PXDES. Este último permite determinar fácilmente el tipo y el grado de cáncer de
pulmón a través de un análisis de datos. Con el inicio de la tercera etapa, en la década de los 80 del
siglo pasado surge también el concepto de base de datos inteligentes. Una base de datos inteligente
es un sistema que administra la información de una forma que parece natural ante los ojos de los
clientes (Alvarado M., 2015). La robótica, las redes neuronales, el reconocimiento de patrones, el
procesamiento del lenguaje natural y el aprendizaje automático son dominios que también han
recibido una atención especial en la tercera etapa de la IA (Casella, 2017).
Así, IA ya no es una simple simulación de tareas de humanos en manos de computadoras, sino que
es toda una metodología y herramienta eficaz para usos como la segmentación de clientes, previsión
de ventas, optimización de recursos, tratamiento de datos masivos y un largo etcétera que se
construye a cada momento. De hecho, el uso de la IA en las empresas se está imponiendo a otras
metodologías y supone toda una herramienta competitiva cuya utilización aporta grandes ventajas
tanto económicas como estructurales, aplicándose en sectores como la banca y seguros, turismo,
energías, educación, transporte y logística, telecomunicaciones, bienes raíces, industria, etc
(Martínez, 2023).
4
2.2.1. Año clave para la IA 2025
La IA avanza rápidamente, habiendo evolucionado desde su concepción hasta el siglo XXI. Se
prevé que el año 2025 sea un punto de inflexión crucial en el cual la IA se integrará en sistemas
cotidianos como computadoras y teléfonos móviles, combinándose con otras tecnologías como la
robótica y la realidad aumentada para brindar experiencias más completas y realistas. Se estima que
el uso de la inteligencia artificial experimentará un gran avance. Se espera que evolucione hacia la
creación de conserjes robotizados con los que se pueda interactuar directamente, por mencionar solo
un ejemplo de hacia dónde se dirige el desarrollo de la IA (Casella, 2017).
2.3. Clasificación de la IA
La escuela clásica dentro de la IA utiliza representaciones simbólicas basadas en un número finito
de primitivas y de reglas para la manipulación de símbolos (por ejemplo, redes semánticas, lógica
de predicados, etc siendo parte central de dichos sistemas. Otro tipo de representación es el llamado
sub-simbólico, el cual utiliza representaciones numéricas (o sub-simbólico) del conocimiento
(Ponce Gallegos & Torres Soto, 2014).
2.4. Modelos de la IA
Existe una clasificación de los modelos de IA que se basa en el objetivo y la forma en que trabaja el
sistema, esta clasificación de manera inicial se veía como clases independientes, sin embargo, en la
actualidad los sistemas mezclan características de ellas (Ponce Gallegos & Torres Soto, 2014):
5
2.4.3. Sistemas que piensan racionalmente
Las leyes del pensamiento racional se fundamentan en la lógica (silogismos de Aristóteles).
6
entre las organizaciones sin ánimo de lucro o para difundir información rápidamente como
servicio público.
2.6. Ramas de la IA
2.6.1. Aprendizaje automático: Machine Learning (ML)
ML es la herramienta principal de la IA dónde los ordenadores o las máquinas tienen la capacidad
de aprender sin ser programados para ese fin, un ejemplo de enfoque común que puede tener esta
rama es el generar sugerencias o predicciones a situaciones particulares. ML utiliza algoritmos para
aprender de los patrones de datos. Por ejemplo, cuando se presentan ciertos correos con
herramientas maliciosas que puedan afectar nuestra computadora o correos que provienen de
contactos fuera de la lista de contactos confiables los filtros de spam que tiene incorporados el
correo electrónico utilizan este tipo de aprendizaje con el fin garantizar una mayor seguridad hacia
los usuarios separando dichos correos de los que si son de utilidad y respaldo seguro. Éste es un
sencillo ejemplo de cómo los algoritmos pueden usarse para aprender patrones y utilizar el
conocimiento adquirido para tomar decisiones (Rouhiainen, 2018).
A partir de ML, se obtienen sub-ramas de las cuales se pueden obtener diferentes resultados del
procesamiento de datos, dependiendo de la información que se les brindan y las funciones que estos
mediante sus especificaciones permiten hacer. En los siguientes apartados se definen estos tipos de
aprendizajes.
a) Aprendizaje supervisado
El concepto de aprendizaje supervisado se debe a que parte de estos modelos requieren supervisión
humana. La gran mayoría de los datos disponibles son datos brutos sin etiquetar. Por lo general, se
requiere la interacción humana para etiquetar con precisión esos datos. Naturalmente, puede ser un
7
proceso intensivo en recursos, ya que se necesitan grandes conjuntos de datos etiquetados. Algunos
ejemplos basados en este aprendizaje parten de clasificar diferentes tipos de archivos como
imágenes, documentos o palabras escritas, también pronosticar tendencias y resultados futuros a
través de patrones en los datos. El aprendizaje supervisado se puede subdividir en dos tipos:
clasificación y regresión.
Los algoritmos que se encuentran dentro de la metodología aprendizaje supervisado son las
siguientes:
Regresión lineal: consiste en graficar una ecuación y que genere un gráfico lineal usando el
método matemático de mínimos cuadrados ([Link], 2021).
Vectores de soporte: se utiliza tanto para problemas de clasificación como de regresión, plantea
una curva o hiperplano que modela una tendencia de datos de entrenamiento y de esta poder
predecir cualquier dato en el futuro (González, 2023).
8
Bosques aleatorios: es un algoritmo flexible que se emplea tanto para clasificación como para
regresión, hace referencia a una colección de árboles de decisión no correlacionados, que luego
se fusionan para reducir la varianza y de esta manera formular predicciones de datos más
precisos (IBM, 2018).
K vecinos más cercanos: este algoritmo consiste en entrelazar bases de datos extensas por
medio de puntos de datos que corresponden a una clasificación específica. A partir de un punto
se puede predecir tomando en cuenta los “K” puntos más cercanos para determinar la
clasificación cercana (Aghabozorgi, 2018). En resumen, el método toma una serie de datos
etiquetados con categorías, que son variables discretas que permiten clasificar al dato. Estos
datos tienen además una serie de valores característicos con valores discretos o continuos. Se
busca comparar cada punto con los demás a fin de encontrar puntos con similitudes en los
valores característicos. Esta agrupación debería conducir a grupos de datos que pertenecen a la
misma categoría. El valor de K es el número de puntos con los cuales cada dato se compara.
b) Aprendizaje no supervisado
Es el entrenamiento de modelos de datos sin procesar y sin etiquetar. Como el nombre indica, el
aprendizaje automático no supervisado no necesita tanta intervención humana comparado con el
aprendizaje supervisado. Una persona tiene que establecer los parámetros del modelo, como la
cantidad de puntos deseados, pero el modelo es capaz de procesar grandes conjuntos de datos de
manera efectiva y sin supervisión humana. Los ejemplos basados en este aprendizaje se presentan
de las siguientes formas (Universidad Europea, 2022):
9
aprendizaje; de esta manera, una característica de un nivel de complejidad más alto será aprendido
de una de un nivel de complejidad más bajo (Pierre, 2015).
2.7. Impactos de la IA
2.7.1. Impacto de la IA en el sector económico
El impacto de la IA se manifiesta de muchas formas. Uno de ellos es su capacidad para transformar
y promover la economía. De hecho, algunas personas piensan que la humanidad está
experimentando una nueva revolución industrial. Los cambios actuales son producto de la creación
y aplicación de algoritmos, los algoritmos son una serie de operaciones matemáticas capaces de
ejecutar comandos, desarrollar y realizar diferentes actividades (Cruz, 2021).
El sector financiero y el sector minorista son ejemplos de instituciones que maximizan el potencial
de la IA. Los bancos y las empresas financieras utilizan esta tecnología en la investigación y el
análisis de fraudes, la evaluación del riesgo crediticio, los sistemas de asesoramiento,
recomendación y la prevención de amenazas. Las empresas minoristas lo utilizan principalmente en
las áreas de distribución y logística, reabastecimiento e inventario o planificación inteligente de la
mano de obra (Cruz, 2021).
10
También optimiza los recursos sanitarios disponibles, automatizando tareas repetitivas, y acelerando
la interpretación de los datos. De manera, que la proliferación de registros de salud electrónicos,
intercambios de información sanitaria, y la información procedente de los dispositivos portátiles y
sensores, generan cantidades de datos que, sin ayuda de la IA, serían imposibles de analizar y
procesar. Estas son solo algunas de las múltiples funciones que desempeña la IA en salud, pero la
lista sería interminable (Diaz, 2020).
La IA también tiene un papel clave para preservar el medio ambiente y luchar contra los incendios.
Por ejemplo, la multinacional tecnológica IBM ha aplicado la IA para desarrollar la herramienta
“Bee2FireDetection”, la cual es capaz de calcular cuáles son las probabilidades de que se dé un
incendio. Es por tanto de gran ayuda para combatirlo de un modo más ágil y eficaz. Esta
herramienta está siempre en funcionamiento, las 24 horas del día, los 365 días del año. Además, su
radio de acción es muy amplio, permitiendo detectar incendios forestales que se encuentran a 15
kilómetros de distancia. Para ello hace uso de una serie de algoritmos, además de recopilar distintos
datos ambientales del terreno y meteorológicos. Así, “Bee2FireDetection” realiza un pronóstico
muy preciso, con un margen de error mínimo (García, 2019).
11
2.8.1. Aplicaciones en el campo de la ingeniería química
En la ingeniería química la IA ha invadido los procesos químicos, en aplicaciones de sistemas
expertos, redes neuronales, lógica difusa y algoritmos genéticos. Su principal enfoque son las
simulaciones dinámicas para la representación de distintos modelos enfocados en la optimización y
diseño de los procesos. Los sistemas basados en conocimientos se crean usando conocimientos de
expertos humanos, así como de las ciencias básicas y la ingeniería y entra el ámbito de aprendizaje
automático gracias a que los conocimientos se pueden mejorar continuamente con la entrada
continua de información y tasas de cambio (Tapias García, 2019).
Hoy en día el uso del ML destaca gracias a la capacidad de predecir propiedades de compuestos
químicos. En el campo de química y farmacia se utiliza para diseñar nuevos fármacos ya que se
necesita saber si una sustancia es fácil o difícil de sintetizar, o si esta se puede disolver en agua o
incluso si esta puede llegar a generar efectos adversos sobre el ser humano; de esta manera la
proyección de las propiedades sería de gran utilidad para evitar ensayos que por su parte son caros y
que tomarían más tiempo. Por ejemplo, la predicción del plegamiento de las proteínas a partir de la
secuencia de aminoácidos ha sido un problema en la bioquímica vigente durante varias décadas y
no cabe duda de que el ML podría brindar un gran apoyo a esta situación (Farrán Morales & León
Cabanillas, 2019).
12
nuevos avances de tecnologías dentro de la IAy las redes neuronales, para mejorar precisión e
identificar errores cometidos en diferentes pruebas como la determinación de fracción de vapor
dentro del sistema de flujos con controles de variables de temperatura y presión (Tapias García,
2019).
Dentro del ML se presenta la oportunidad para hacer aproximaciones que no introduzcan errores a
los resultados, mediante el uso de algoritmos que permitan realizar pruebas de análisis de datos.
Por ejemplo, Farrán et al, 2019, desarrollan algoritmos para evaluar la energía y propiedades de una
molécula a partir de la geometría sin utilizar ecuaciones, ya que se analiza y aprende de los
resultados de dichas ecuaciones contenidos en bases de datos (Farrán Morales & León Cabanillas,
2019).
Por otro lado, las simulaciones de dinámica molecular se utilizan para simular la evolución
temporal de sistemas moleculares y éstas se basan en el uso de modelos formados por parámetros
empíricos para calcular la energía, siendo por momentos difícil escoger el conjunto de parámetros
empíricos adecuados para cada sistema en particular; es por esto que en la actualidad se desarrollan
herramientas no solo capaces de elegir el modelo óptimo sino que también desarrollen parámetros
y modelos que sean mejores que los existentes (Farrán Morales & León Cabanillas, 2019).
Para llevar a cabo este método que busca mejorar los modelos existentes y no solo la creación de
nuevos modelos, se deben tener ciertas consideraciones en mente; primero debe tenerse en cuenta
que para la eficacia del método se necesita una gran disponibilidad de datos y en el caso del área de
química se pone en desventaja ya que a veces se cuenta con una cantidad mínima de datos en ciertos
temas. Por otro lado, en su mayoría se establecen relaciones entre parámetros de forma
fenomenológica sin incorporar ningún fundamento físico y este comportamiento como caja negra
permite establecer la duda de hasta qué punto se puede decir que los resultados de los algoritmos
capturan la relación causa y efecto concreto. Es decir, aún no queda claro si los algoritmos son
capaces de entender una física real (Farrán Morales & León Cabanillas, 2019).
13
2.8.2. Aplicación en la investigación
La IA vendría a ser parte de cada uno de los aspectos más importantes y funcionales de la red
(internet). En la educación, como eje central, el objetivo a alcanzar por medio de la IA con apoyo de
los métodos previos del traslado de información ya que siempre se está en búsqueda de implementar
programas que permitan entornos de aprendizaje adaptativo para los estudiantes, docentes e
investigadores que construyan un punto de encuentro dentro de las partes involucradas gracias a la
IA, obteniendo apoyo de las predicciones y análisis de estrategias para poder impartir
conocimientos de manera eficaz y puntual, basándose en un análisis predictivo y evolutivo a partir
de datos que van involucrándose constantemente y que puedan ser utilizados de forma asertiva.
(García Peña, 2020).
El ML como subcampo de las ciencias de la computación y una rama de la IA, busca algoritmos y
heurísticas para convertir muestras de datos en programas de computadora, sin tener que insertar
todos los datos. En específico busca que a partir de la información previa en la educación e
investigación se logre acelerar el proceso de realización y desarrollo de los objetivos globales de
mejora, mediante la reducción de las dificultades de acceso al aprendizaje, la automatización de los
procesos de gestión y la optimización de los métodos que permiten mejorar los resultados en el
aprendizaje (García Peña, 2020).
14
además su uso se extiende a cualquier situación o proceso donde se desean identificar tendencias,
realizar predicciones, detectar anomalías, etc. (Maisueche Cuadrado, 2019).
La visión artificial es una disciplina científica muy utilizada en la industria, ya que permite a los
robots realizar tareas como el control de calidad y la inspección y reconocimiento de objetos. Los
sistemas de visión también sirven para determinar la posición y la orientación de los objetos de
forma que un robot pueda manipularlos (Maisueche Cuadrado, 2019).
La empresa ZenRobotics utiliza un robot que combina visión artificial y ML para clasificar cuatro
mil elementos reciclables por hora. Los datos son suministrados en tiempo real gracias a los
sensores y a las imágenes que procesan las cámaras con el objetivo de identificar una amplia
variedad de basura y envoltorios de comida y bebida. Además, este sistema es capaz de reconocer
logos, marcas y formas en 3D (Maisueche Cuadrado, 2019).
Los controles de calidad realizados por humanos corren el riesgo de ser erróneos. Sin embargo, la
calidad de los productos es un aspecto imprescindible que puede ser controlado con ML. Además,
conocer de antemano si la calidad de la producción se está deteriorando, previene el gasto
innecesario de materia prima y de tiempo (Maisueche Cuadrado, 2019).
15
En la industria es de suma importancia tener un sistema automatizado que permita tener
producciones ágiles donde se optimicen los recursos utilizados es por esto qué las ventajas que
representan generar algoritmos y maquinarias que presenten actitudes de aprendizaje como las de
un humano hacen que las industrias tengan ventajas competitivas en el mercado. Una mejora en la
calidad de los productos también es otra ventaja que pueden brindar los métodos como ML a partir
de IA y este punto es clave ya que las producciones en fábricas normalmente pueden generar ciertas
fallas por defectos que al final representan pérdidas hacia la empresa donde el poder detectarlas a
tiempo y gestionar el trasfondo de esta falla con exactitud en el menor tiempo con la ayuda de
algoritmos de detección de defectos hace más simple la gestión de la alteración en producción.
16
CAPÍTULO 3. REVISIÓN BIBLIOGRÁFICA
En este capítulo se desarrolló una revisión bibliográfica donde se presentan algunos de los estudios
y análisis de las principales aplicaciones y métodos de utilización de la IA en áreas vinculadas a la
ingeniería química, clasificándose según su objetivo específico como estudio y aplicación. El
principal objetivo de la IA es poder recrear las actividades del ser humano, y poder hacer la
optimización de sus procedimientos. Esto se traduce a la capacidad de las máquinas para utilizar los
algoritmos, aprender de datos y desarrollar simulaciones que permitan identificar errores y realizar
mejoras.
Para este capítulo se divide la información en tres grandes ramas de aplicación, según la meta de
cada estudio analizado: predicción, optimización y educación. Los estudios fueron clasificados
según el análisis de los fundamentos, metodologías y resultados obtenidos de cada tema.
La selección radica en tres temas de aplicación: predicción, optimización y educación a raíz de las
metodologías, algoritmos, bases de datos y estudios. Esto puede identificarse en la tabla A.1 y tabla
A.2 del anexo A, donde se da la representación visual de los temas y su respectivo análisis.
3.1.1. Predicción
Para los estudios clasificados en la categoría de predicción, se determina con una declaración
precisa lo que podría ocurrir a partir de condiciones determinadas. Es decir, se realiza la
identificación y determinación de parámetros necesarios para poder inferir un resultado. Para ello se
17
ha entrenado una IA para poder determinar variables, coeficientes, constantes u otros valores de
algún procedimiento.
Cabe mencionar que la predicción a partir del ML no busca sólo la determinación de un coeficiente
o variable a condiciones predeterminadas. Sino que se busca crear modelos que puedan ser
utilizados para predecir los valores en cuestión a partir de datos nuevos, que representen
condiciones distintas a aquellas en las que se desarrolla el modelo por primera vez. Esto permite ir
refinando resultados de forma continua o cuando sea requerido, sin volver a realizar los
procedimientos que tomarían más tiempo y esfuerzo para un ser humano, gracias a la capacidad de
procesamiento de las computadoras actuales, lo que permite ir mejorando la exactitud de los
resultados.
Los estudios citados en esta sección hacen predicciones por medio de IA a partir de varias
metodologías como redes neuronales, simulación a partir de: ajustes gráficos, métodos numéricos,
análisis de ecuaciones, funciones y regresiones lineales o polinómicas, basándose en el tipo de
relaciones que los materiales o sujetos de estudios tengan con el entorno y sus variables internas,
para poder obtener coeficientes, estados o condiciones, variables o incluso poder predecir todo un
comportamiento.
Dentro de las aplicaciones de predicción, que suelen ir de la mano en la mejora de procesos, Sirawit
Prukasawan et al, definen la predicción y optimización de la fuerza adhesiva epóxica, publicado el
21 de octubre de 2019. El objetivo principal del ML en la ciencia de los materiales es buscar
materiales altamente funcionales con propiedades que se adapten a los requisitos de una aplicación
específica, donde se presenta el problema, que, para bases de datos con cantidades de muestra bajos,
tienden a tener problemas para poder elaborar procesos con apoyo del ML, ya que restringe el uso
de algoritmos y la capacidad de extracción de información, utilizándose un modelo de ML con
refuerzo de gradiente basado en un conjunto de árboles de decisión individuales, entrenados de
forma secuencial. Cada nuevo árbol emplea información del árbol anterior para aprender de sus
18
errores, mejorando iteración a iteración. Funcionando como estrategia del aprendizaje activo, que
suele ser eficaz para la mejora en procesos y modelos de predicción (Rodrigo, 2020).
Este estudio demuestra el importante impacto del aprendizaje activo para acelerar el diseño y el
desarrollo de materiales a medida altamente funcionales a partir de conjuntos de datos muy
pequeños (Pruksawan et al., 2019).
Dentro del enfoque para la predicción de variables, se presenta la investigación acerca de predicción
de la tasa de corrosión y los factores asociados en aceros de baja aleación en condiciones de
atmósfera marina mediante el uso de ML, publicado por Luchun Yan et al, el 19 de junio de 2020,
enfocándose en la limitada habilidad de regresión de los algoritmos convencionales y modelamiento
de los objetos, debido a factores individuales de los materiales, las condiciones en las que se
encuentran y factores medioambientales, que pueden afectar en las propiedades y comportamiento
de los materiales. Yen et al presentan un modelo basado en la metodología de ML para la
simulación de la corrosión en aceros de baja aleación en condiciones de atmósfera marina,
evaluándose las correlaciones entre el material, los factores ambientales y la velocidad de corrosión,
realizándose un análisis intuitivo de las influencias en el comportamiento de corrosión de los
aceros, mediante el uso de los factores dominantes seleccionados como variables de entrada. A
partir del estudio de los parámetros: la correlación entre los materiales, factores medioambientales y
factores que afectan la velocidad de corrosión. Se utilizan métodos para la determinación del
coeficiente de correlación y el coeficiente máximo de información, y otros factores incluyendo la
composición de la aleación, la temperatura del aire, humedad, precipitación, radiación solar,
precipitación de cloro, tasa de precipitación de dióxido de azufre y periodos de exposición.
Para el estudio por parte de Yan et al se trabajan los datos de las hojas de corrosión del instituto
nacional de ciencia de los materiales. En donde a partir de datos de diferentes grupos de materiales
que fueron expuestos en tres lugares de exposición atmosférica. Se emplean algoritmos para la
predicción de modelos de tasas de corrosión, a partir de métodos estadísticos y métodos con
funcionamientos de redes neuronales en aplicación del ML como lo son: regresión lineal múltiple
(MLR), regresión cresta (RR), regresión de vectores de soporte (SVR), bosque aleatorio (RF), árbol
de decisión con gradiente impulsador (GBDT) y gradiente impulsador extremo (XGBoost).
A partir de los datos recolectados basados en la corrosión atmosférica, y las correlaciones que se
mención, el factor que más influye en la velocidad de corrosión es la composición química, los
19
depósitos y la precipitación de cloro en los primeros años de exposición a las condiciones marinas,
pero a lo largo de la predicción y la formación de las capas de corrosión la humedad relativa se
convierte en el factor medioambiental más importante, ayudando a determinar los comportamientos
de los aceros a lo largo del tiempo y evaluando la resistencia a la corrosión según su composición,
permitiendo optimizar el uso de aceros en condiciones de atmósferas inestables y extremas a partir
de la predicción del comportamiento ante dichas condiciones y variables externas (Yan et al.,2020).
López presenta en el estudio la comparación entre diferentes modelos, pero el que es determinante y
representado como el óptimo, es el modelo termodinámico NRTL para los distintos cálculos de
equilibrio. Este modelo fue programado usando Python, considerando el análisis de energía libre de
Gibbs usando parámetros de interacción binaria (BIP) de HYSYS V9, Aspen Plus V9 y la literatura
técnica, con el objetivo de mejorar los modelos que conducen a simulaciones bifásicas, prediciendo
de esta manera las presiones de vapor y la región trifásica, además pueden proponer modelos de ML
basados en grandes bases de datos para predecir el número de fases bajo las condiciones antes
estudiadas, con un excelente desempeño con modelo KNN (k-nearest neighbors) y el modelo SVC
( Support Vector Classifier) ponderado (Lopez.,2021).
Enfocándose en investigaciones de temas de reciente auge, se plantea un nuevo marco dentro del
ML para la predicción de la conductividad térmica, como lo mencionan los autores Yajing Sun et al
20
en su artículo publicado el 29 de octubre de 2021. El estudio se enfoca en las propiedades de
transporte térmico de los materiales cristalinos mediante gráficos de cristales de nuevos materiales,
donde la conductividad térmica de la red (CT) es una importante propiedad intrínseca del material
que ha recibido una amplia atención. Sun et al plantea como los métodos de ML podrían ser una
buena alternativa en la predicción de las propiedades de transporte térmico. En donde aumenta la
importancia de encontrar un marco más universal para la extracción de características de los
materiales y los algoritmos de formación, en específico este estudio presenta un nuevo marco de
algoritmos de ML de conjuntos integrados de convolución de grafos cristalinos fue entrenado para
predecir la CT, en donde la única característica de entrada era la estructura cristalina. se integraron
múltiples aprendices individuales para mejorar la capacidad de aprendizaje de todo el marco de
algoritmos. Este marco de ML se utilizó para predecir el CT de materiales cristalizados y presentar
un excelente rendimiento. Este estudio enfoca el ML como una herramienta, para la predicción no
solo de la conductividad térmica, sino también de propiedades de fonones y electrónicas
relacionadas con la estructura, las cuales puedan ser representadas de forma gráfica (Yajing & Hu,
2021)
Continuando con el tema de predicción de variables los autores Ekaterina Grachevara et al,
presentan la predicción de coeficientes de expansión térmica lineal para los homopolímeros amorfos
basados en la estructura química publicado el 29 de noviembre de 2021, en donde explican la
expansión térmica como una propiedad macroscópica de los polímeros, aunque no se tiene un
modelo basado en la expresión de su estructura con suficiente exactitud, Grachevara et al presentan
dos modelos predictivos basados en datos para el CET lineal, en estado vítreo a partir de la
únicamente la composición química. El primer modelo se construye con un programa SMILES-X y
se basa en el sistema simplificado de entrada molecular el cual se divide en tokens, que representan
los átomos, enlaces, ramas y anillos individuales; el otro método está basado en bosques aleatorios,
entrenados a partir de las huellas digitales y hallazgos de la conectividad extendida de la unidad de
repetición, Las huellas digitales codifican la información sobre cada átomo junto con sus vecinos
inmediatos situados dentro de un número fijo de enlaces, identificando que el número de enlaces se
conoce como radio y lo fija el usuario.
Hasta la actualidad no se tiene ningún modelo teórico o experimental para poder determinar el
coeficiente de expansión térmica a partir de la composición química. Para el caso de cerámicas o
metales, con estructuras rígidas que no son descritas como en vítreo, se tiene la posibilidad de
calcular el CET usando los principios de cálculo. El mecanismo de atención implementado en
21
SMILES-X permite tener una comprensión visual de a qué átomo o enlace presta atención un
modelo entrenado cuando calcula el CET lineal. El modelo de bosque aleatorio basado en huellas
moleculares permite un tipo de visualización similar. Sin embargo, debido a la naturaleza del
cálculo de huellas digitales, sólo es posible evaluar la importancia de átomos individuales para la
predicción, dejando al estudio como una posibilidad de continuar en el entrenamiento de las
metodologías para la predicción del CET (Gracheva et al., 2021).
Otro tema que ha sido clasificado como un objetivo de la predicción es el de poder predecir el
diagrama de transformación por enfriamiento continuo para zonas afectadas por soldadura,
publicado por Satoshi Minamoto et al, el 13 de octubre de 2022. El diagrama de transformación por
enfriamiento continuo (CCT) de los aceros es muy importante para considerar la transformación de
fase en función de la velocidad de enfriamiento de un material. El objetivo de este estudio es
establecer una técnica para poder predecir el CCT haciendo uso del ML y métodos de IA para
simular sus comportamientos, con la mejor aproximación ante condiciones arbitrarias como la
composición y la velocidad de enfriamiento. Para ello se presenta un modelo de predicción del CCT
para la transformación afectada por la zona de calentamiento (HAZ) usando el ML basado en datos
experimentales existentes. El diagrama CCT real varía significativamente con la composición del
material, el diagrama CCT tiene que ser para cada acero en base de los resultados experimentales.
22
El diagrama CCT del estudio de Minamoto et al ya ha sido utilizado e implementado en un sistema
llamado MInt, en el cual permite la conexión con diferentes diagramas de flujos interactivos que
mediante ML pueden generar las correlaciones e interacciones entre sus variables y parámetros esto
ayuda en el entendimiento de la microestructura e información de los materiales, a partir de las
propiedades mecánicas, composiciones y coeficientes dependientes de las aleaciones (Minamoto et
al., 2022)
Min presenta además como los sucesivos procesos de reciclado en cadena provocan daños en el
papel, que incluyen macro y micro cambios en las fibras. Durante los procesos de fabricación y
reciclado del papel, las fibras tienen que soportar el cizallamiento, el prensado y el secado, lo que
provoca cambios significativos en sus propiedades. Para el desarrollo de la investigación, en primer
lugar, se utilizaron varias fibras vírgenes para formar hojas de manos y, a continuación, se
desfibraron las hojas de manos para producir fibras recicladas. A continuación, se formaban hojas
con las fibras recicladas, las cuales se desfibraban y reformaban de nuevo. El proceso de reciclado
se repetía cuatro veces, y las láminas se probaban para determinar las propiedades de las fibras
durante el proceso. El modelo de ajuste de curvas hiperbólicas y el modelo de red neuronal LSTM
se desarrollaron a partir de los datos experimentales, por último, se determinó y comparó la
estimación y predicción de la resistencia a la tracción a partir de los dos modelos.
23
Los resultados experimentales muestran que las propiedades respondieron negativamente al
reciclado, debido a las fuerzas de tracción. En la mayoría de los casos, el deterioro de las
propiedades tras el primer reciclado fue mucho peor que el de cualquier otro reciclado, a partir de
los resultados, el índice de daño propuesto podría utilizarse para estimar y predecir la resistencia a
la tracción de las hojas fabricadas con fibras recicladas, la precisión de las estimaciones de la red
neuronal fue menor que las de ajuste de curvas, demostrando como los modelos para el
almacenamiento y análisis de datos en forma de las redes neuronales tiene la capacidad de predecir
la capacidad y resistencia que tendrán diferentes insumos. (Li et al.,2023)
En contraste con enfoques lineales que pueden ser limitados para representar comportamientos
variables y no lineales de los ríos, las redes neuronales artificiales permiten modelar sistemas
hidrológicos complejos y no lineales. Esto resulta especialmente útil cuando se enfrenta la escasez
de datos o la presencia de variables no controladas en las condiciones hidrológicas. Al igual que en
los estudios mencionados sobre la calidad atmosférica y la concentración de dióxido de sulfuro, las
redes neuronales artificiales se combinan con métodos de IA y ML para capturar la naturaleza
aleatoria y simular diferentes condiciones.
En general, se utilizan dos tipos de redes neuronales, los perceptrones multicapa (MLP) y las
funciones de base radial (RBF), para abordar problemas hidrológicos. También se emplea la
estructura ANFIS, que permite mapear funciones de entrada y salida a través de parámetros
24
asociados. Este enfoque computacional blando utiliza un sistema de inferencia difusa (FIS) para
expresar un conjunto de datos de entrada-salida y lograr un mapeo no lineal entre ellos.
En el estudio presentado por Pramanik, se utilizan técnicas de IA, redes neuronales artificiales
(ANN) y un sistema de inferencia neurodifusa adaptativo (ANFIS) para estimar el flujo en una
sección aguas abajo de un río, utilizando datos de flujo en ubicaciones aguas arriba. Se evalúan
diferentes modelos con distintas combinaciones de variables de entrada utilizando ambas técnicas.
25
Los métodos actuales para adquirir imágenes que se pueden utilizar para evaluar los efectos de los
incendios forestales se basan en satélites, como en el caso de Landsat un programa de satélites
manejados por la NASA y el servicio geológico de EE. UU., que tienen una resolución espacial de
30 m, utilizados en incendios forestales. Los métodos actuales de adquisición de imágenes también
han incluido el uso de aeronaves tripuladas, pero con el propósito de obtener imágenes posteriores a
los incendios, como parte del ML y modelos retroalimentados, se destaca que las aeronaves
tripuladas son mucho más costosas que los sistemas de aeronaves no tripuladas (sUAS) y además
pueden tener separaciones en los datos, esta separación se encontró tanto con datos hiperespectrales
como con datos de color multiespectral transformados a partir de los datos hiperespectrales
utilizando el TCM. Estos resultados muestran la posibilidad de mapear la severidad de los incendios
forestales utilizando las cámaras digitales a color que vienen de serie en muchas sUAS, mediante la
detección de la luz reflejada en tres bandas que cubren el mismo espectro de 450-700 nm. Hamilton
et al plantean como se puede permitir la adquisición, análisis y gestión de imágenes de
hiperresolución para mapear la severidad de los incendios de manera más rápida, económica y
segura que con los métodos actuales. Esto incluye el desarrollo y calibración de herramientas de
adquisición de imágenes, procesamiento y clasificación dentro de la plataforma de análisis de
efectos de incendios (Hamilton et al.,2017).
26
La gestión eficaz de los incendios forestales y de los incendios simulados es un paso crítico esencial
hacia unas zonas silvestres sanas y sostenibles. Una comprensión cuantitativa de las relaciones entre
el combustible, el comportamiento del fuego y los efectos sobre el desarrollo humano y los
ecosistemas puede determinar los mejores cursos de acción ante la crisis. La reflectancia es una
relación entre el flujo radiante emitido (radiancia) y el flujo radiante recibido (irradiancia) que
medimos con un espectrofotómetro UV-Vis Cary 100. El espectrofotómetro mide la reflectancia
espectral difusa que se produce cuando la luz se refleja en superficies rugosas, demostrando en el
estudio espectrofotométrico que el examen de la reflectancia media de la clase muestra una
separación espectral completa entre la ceniza negra y la ceniza blanca
Jain et al mediante su artículo permiten identificar como la gestión y estudio de incendios forestales
previos, desempeñan un papel activo en el suministro de datos históricos de incendios forestales
relevantes, de alta calidad y de libre acceso para que los utilicen los profesionales y apliquen los
métodos de ML, para los cuales es imperativo que la calidad de los datos recopilados por las
agencias de gestión sea lo más sólida posible, y de lo más fiable puesto que los resultados de
cualquier proceso de modelado dependen de los datos utilizados para el análisis, por el contrario, se
debe reconocer que, a pesar de que los modelos de ML pueden aprender por sí mismos, se necesita
experiencia en la ciencia de los incendios forestales para garantizar un modelado realista de los
procesos de incendios forestales, mientras que la complejidad de algunos métodos de ML (Jain et
al., 2020).
27
Regresión Lineal Múltiple (MLR) siendo uno de los métodos de regresión lineal más populares para
predecir la concentración de ozono, pero a partir del auge de la IA como un método no lineal para la
resolución de problemas complejos, se le da el enfoque y estudio de la calidad del aire.
Recientemente, muchos investigadores han utilizado máquinas de vectores soporte (SVM) para
predecir la concentración de ozono en series temporales anticipadas.
28
Sol et al presentan en su artículo un enfoque que no solo ofrece beneficios en cuanto al empleo de
las técnicas de ML en la predicción de parámetros como lo son las concentraciones de CO2, sino
que también permite tener un panorama para futuros estados de mismas índoles donde se tendrán
oportunidades y desafíos diferentes (Sol et al, 2022).
Los resultados mostraron que el modelo propuesto fue capaz de capturar la variación diurna en la
concentración de ozono, reflejando los cambios en la temperatura y la radiación solar a lo largo del
día. Se estableció un modelo de dos etapas para estimar la concentración de ozono cercana a la
superficie en la región de BTH, lo que permitió obtener resultados altamente precisos en la
simulación horaria de ozono.
29
En general, este estudio demuestra la capacidad del enfoque combinado de modelos de transporte
químico y ML para predecir y estimar la concentración de ozono en superficie en la región de BTH.
Los resultados obtenidos brindan información valiosa para el control de la contaminación
atmosférica y la toma de decisiones relacionadas con la calidad del aire. Además, sientan las bases
para futuras investigaciones y aplicaciones de modelos ML en el campo de la predicción de
parámetros atmosféricos y la gestión ambiental. (Xue et al., 2022).
30
herramientas permiten realizar análisis de regresión no lineal y análisis no paramétrico de forma
flexible. Además, se ha desarrollado un modelo híbrido inteligente que combina la precisión del
SVR con la influencia de las variables de entrada en el modelo MARS, aprovechando tanto las
condiciones químicas como las meteorológicas efectivas. El uso de estas herramientas de ML
potencia la capacidad de análisis e interpretación de datos, permitiendo obtener resultados más
precisos en la estimación de la concentración de SO2 y mejorando la comprensión de los factores
que influyen en la contaminación atmosférica.
Continuando con el hilo de estudio de propiedades que son de la naturaleza, las herramientas de la
IA permiten encontrar oportunidades de mejora y de prevención, el estudio de las concentraciones
de ozono, permite el análisis de las tendencias a partir de los datos recopilados y hacer decisiones en
una menor cantidad de tiempo, debido a que cuando está presente en cantidad suficiente, el ozono
troposférico puede tener graves efectos sobre la salud humana, como enfermedades respiratorias y
cardiovasculares. Estos enfoques permiten una gestión más eficaz de la contaminación atmosférica
y la toma de decisiones basada en datos confiables. (Alamoudi et al.,2022).
3.1.2. Optimización
Dentro de las aplicaciones de ML en la categoría de optimización, se puede determinar que su
principal objetivo va enfocado sobre procedimientos, metodologías y algoritmos, puesto que ayudan
a identificar parámetros no tomados en cuenta, parámetros que pueden tener mayor incidencia o
incluso realizar análisis cualitativo, para identificar las mejores opciones y acciones de respuesta o
resultado.
31
del papel y la celulosa, o pasta de papel, se destaca como uno de los sectores con mayor consumo
energético a nivel mundial. El proceso de refinado, que implica la separación de fibras de lignina o
la disolución de lignina en agua caliente, se identifica como la etapa más costosa en el despulpado
termomecánico, principalmente debido al consumo de energía eléctrica involucrado.
Por otra parte, se busca representar la inmensa capacidad de diferentes métodos de IA para simular
y dar acceso a coeficientes de correlación en la refinería. El estudio nace debido al aumento de la
preocupación medioambiental y de los costos energéticos, se ha prestado mucha atención a la
mejora de la productividad de las industrias que consumen mucha energía, la industria del papel y la
celulosa o pasta de papel es uno de los sectores industriales con mayor consumo energético en todo
el mundo. Para que el proceso de refinado sea sostenible y eficiente desde el punto de vista
energético, se requiere una estrategia de control del refinado óptima. El diseño de un sistema de
control requiere un modelo de identificación del sistema. El rendimiento y la eficacia del
controlador del proceso aumentan con la mayor precisión del modelo de identificación.
El refinado es el proceso más caro de despulpado termo mecánico debido a que la energía eléctrica
es consumida para separar las fibras a partir de la lignina; o la disolución de lignina en agua
caliente, para la representación del modelo de red neuronal multilayer perceptron MLP se utilizan
diferentes entradas de datos, los cuales son diferentes combinaciones de la velocidad medida del
tornillo alimentador de refinado, el agua de dilución, la separación entre placas y el tiempo,
mientras que la única salida de la simulación es la carga del motor de refinado. El error de
simulación del conjunto de datos de validación es esencial en el método de redes neuronales y se
controla durante el proceso de entrenamiento de la red.
32
En la actualidad los diferentes enfoques que se obtienen a partir de ML en la optimización de
procesos han permitido obtener predicciones sobre propiedades moleculares rápidas y eficientes
como lo mencionan en su artículo los autores Sanggil Park et al, publicado el 26 de abril del 2022.
El uso del ML en problemas de reacciones químicas ha permitido predecir propiedades físicas como
cambios termodinámicos, barreras de activación y velocidades de reacción. Mediante el análisis de
datos y la creación de modelos basados en ML, se obtiene información valiosa para optimizar
procesos y tomar decisiones en química e ingeniería química.
Park et al proponen un modelo de ML que utiliza redes neuronales gráficas, bases de datos de
máquinas cuánticas y el modelo de PubChem para predecir propiedades moleculares y propiedades
de reacción. Este enfoque permite derivar una propiedad de reacción a partir de las propiedades
moleculares predichas, utilizando principios físicos como la conservación de energía. Sin embargo,
este enfoque tiene la limitación de aplicarse solo a funciones de estado, ya que se basa en la
información de las moléculas individuales en lugar de la reacción en sí misma. Aunque este modelo
no se basa en principios químicos y no requiere una caracterización explícita de las reacciones, es
necesario crear descriptores para las reacciones químicas. Esto implica la necesidad de una extensa
base de datos de reacciones, lo cual puede ser una de las principales desventajas de este enfoque. La
disponibilidad de una gran base de datos de alta calidad es crucial para obtener predicciones
precisas y exitosas mediante el uso de ML al crear modelos personalizados. La obtención de datos
precisos y relevantes es esencial para aprovechar al máximo el potencial de ML en la predicción de
propiedades moleculares y de reacción. (Park et al., 2022).
Por otro lado, el artículo por parte de Yinli Wang et al, sobre las aplicaciones de las redes
neuronales profundas en el diseño de compuestos, publicado el 14 de marzo de 2022, en donde se
aplica en el diseño y comportamiento de los sistemas de materiales compuestos modernos
presentándose en mayor auge por su alta resistencia y rigidez, en base a las propiedades ajustables y
alterables en la producción. En él articulo Wang et al, presentan un análisis sobre los estudios
recientes en los cuales se han desarrollado herramientas computacionales a partir de redes
neuronales, gracias a la capacidad de ML y él tiempo de procesamiento más rápido de grandes
conjuntos de datos. Presentando él potencial para resultados más precisos.
Wang aterriza su estudio en los conjuntos de datos de entrenamiento, el algoritmo y los datos de
salida como pasos operativos en el aprendizaje profundo. Presenta cómo los algoritmos con apoyo
33
del aprendizaje profundo sirven para resolver problemas de diseño de manera efectiva al
familiarizarse con los procesos de aplicación. Para ello, es necesario identificar los resultados
deseados, como las propiedades de los materiales, la forma o geometría estructural, o la geometría
de los componentes. En segundo lugar, se debe identificar el tipo de datos involucrados, teniendo en
cuenta el aprendizaje hacia atrás, es decir, la retroalimentación para generar modelos de aprendizaje
mediante la retro propagación. Se diseñan experimentos que evalúan las propiedades bajo diferentes
condiciones medioambientales, cargas estáticas, fatiga, fluencia y cargas dinámicas. Debido a la
naturaleza heterogénea y anisotropía, las propiedades de estos compuestos pueden ser dinámicas
internamente y variar según su composición. Su complejidad genera una serie de problemas en los
procesos de fabricación y en la inspección en servicio. Durante el proceso de fabricación de los
compuestos, es común que se produzcan microfisuras, rotura de fibras, porosidad, deslaminación e
inclusiones.
Uno de los enfoques destacados en el artículo son los algoritmos de mejora cuántica, los cuales
aplican la ingeniería de software cuántico al procesamiento de información clásica. Estos
algoritmos buscan mejorar las soluciones de ML al mismo tiempo que reducen los recursos
computacionales necesarios, aumentando así la precisión de los resultados.
Dentro de los modelos de ML, se utilizan principalmente tres formas: supervisado, no supervisado y
reforzado. Estos métodos hacen uso de bases de datos y son capaces de trabajar con modelos
34
altamente complejos. Como resultado, surge una metodología mejorada dentro del campo del ML,
donde se busca aprovechar las capacidades de las computadoras cuánticas para proporcionar
modelos escalables de ML.
Estos modelos cuánticos ofrecen capacidades de aprendizaje más allá de lo que se puede esperar de
los modelos clásicos. Los modelos clásicos de ML se basan en la teoría estadística clásica, pero en
algunos casos pueden divergir de las encuestas sobre el comportamiento humano, por ello se puede
identificar que los modelos modernos ofrecen nuevas perspectivas y posibilidades en el campo del
ML, aprovechando las capacidades de las computadoras cuánticas para mejorar la precisión y
escalabilidad de los modelos. Este avance significativo en la intersección de la tecnología cuántica y
la IA tiene potenciales aplicaciones en diversos campos de estudio. En este sentido, las
metodologías de redes neuronales cuánticas se han utilizado para explorar las capacidades del ML
cuántico. Estas metodologías incluyen estrategias de codificación de datos, arquitecturas
parametrizadas y cálculo de pendientes, como el algoritmo de retro propagación y el método de
diferenciación de diferencias finitas. Mediante el uso de estas metodologías, se busca aprovechar las
ventajas de la computación cuántica para mejorar la eficacia y precisión de los modelos de ML.
Estos modelos permiten hacer uso de las redes neuronales cuánticas como: un estimador universal
de Fourier, en el cual se hace una serie truncada de Fourier limitada por la codificación en las que se
utilizan redes neuronales cuánticas como estimadores universales según los comportamientos,
permitiendo crear nuevos algoritmos y protocolos que puedan ser utilizados en la comunicación
cuántica es decir los métodos para transmitir la información y procesamiento basados en los
principios y efectos de la mecánica cuántica la cual mediante la simulación proyectiva.
35
La optimización a partir del ML en la IA va más allá de componentes y productos fármacos, ya que
puede involucrarse en los estudios de mejora en alimentación y nutrición, gracias a la identificación
de oportunidades de mejora. En el artículo publicado por los autores Ricardo Vejarano et al el 14 de
diciembre de 2017, se presenta una revisión sobre cómo las imágenes hiperespectrales pueden
contribuir a la evaluación biológica de contaminantes presentes en los alimentos. Esta investigación
destaca la importancia del ML y la IA en la optimización de la seguridad e inocuidad de los
alimentos, El uso de imágenes hiperespectrales permite obtener una gran cantidad de información
sobre las propiedades biológicas y químicas de los alimentos, lo que facilita la detección y
evaluación de posibles contaminantes. Mediante técnicas de ML, es posible analizar y procesar
eficientemente estas imágenes para identificar patrones y características que indiquen la presencia
de contaminantes.
Vejarano plantea cómo las industrias alimentarias deben ir buscando tecnologías emergentes para
poder detectar riesgos a la salud humana a raíz de los productos y materias primas que tienen en sus
procesos de producción de alimentos, dentro de los métodos para la detección de riesgos, en
específico los contaminantes biológicos. Uno de los métodos más utilizados es mediante imágenes
hiperespectrales. Estas imágenes permiten detectar microorganismos deteriorativos, patógenos,
toxinas microbianas y parásitos que pueden contribuir al deterioro de los productos alimenticios y
representar un riesgo para la salud de los consumidores. Se estima que entre el 10% y el 50% de la
producción agrícola, principalmente de cereales y hortalizas, se pierde cada año debido a la
contaminación microbiana, y parte de estos alimentos contaminados puede terminar siendo utilizado
en la producción de alimentos.
Vejarano también presenta en su artículo métodos tradicionales y más comunes para detectar los
contaminantes, como métodos de ultrasonido, espectroscopia, detección por fluorescencia,
microscopía y él método de inspección visual, estos pueden presentan grandes inconvenientes,
requiriéndose mucho trabajo y tiempo. Mientras tanto, los métodos basados en la inmunología,
como el ensayo inmunoenzimático, se han empleado con éxito para la detección de la
contaminación microbiana.
La HSI es una tecnología emergente que integra las ventajas de la espectroscopia y la imagen
siendo su principio básico el hecho de que todos los materiales reflejan, dispersen o absorben
energía de forma diferente cuando se someten a una fuente de radiación electromagnética en
36
diferentes rangos de longitud de onda debido a la diferencia en su composición química y estructura
física. Cada componente alimenticio tiene una "firma espectral" o "huella espectral" típica la cual
cuando interactúa con la luz incidente, que puede utilizarse para caracterizar, identificar y
discriminar entre diferentes muestras. Esta "firma espectral" informa sobre su composición química
y puede representarse gráficamente frente a diferentes longitudes de onda, dando como resultado la
curva característica de reflectancia, absorbancia o transmitancia para cada sustancia. Esta revisión
da especial relevancia a la HSI como tecnología no destructiva prometedora para la evaluación de la
contaminación de origen biológico en los alimentos, ya que ofrece varias mejoras, como la
velocidad, la precisión y la fiabilidad con respecto a otros métodos.
Como cierre del artículo Vejarano presenta cuáles serían los principales obstáculos a vencer y tratar
en él uso de imágenes hiperespectrales, Son necesarias más investigaciones sobre la aplicación de la
HSI a un mayor número de especies microbianas, alimentos líquidos, presencia de parásitos en otros
tipos de carne (como la de cerdo) y desarrollo de modelos en diversas condiciones de
almacenamiento, lo que unido a la integración técnica de la HSI con otras tecnologías como la FMI
y la RMI, el aumento de proveedores comerciales que puedan reducir el coste y mejorar la
disponibilidad de los sistemas de HSI, las mejoras tecnológicas para el tratamiento de la
información espectral y la búsqueda de modelos robustos y optimizados, sin correr el riesgo de
perder información valiosa, darían a esta tecnología una mayor posibilidad de aplicación industrial
como alternativa a técnicas tradicionales como la cromatografía líquida, la espectroscopia MID-
FTIR, o las pruebas de ensayo inmunoenzimático y PCR, que además de tediosas, son caras y su
aplicación está limitada a nivel de laboratorio (Vejarano et al. , 2017).
Por otra parte, en el artículo de José Jiménez Luna et al, publicado el 26 de enero de 2021, se busca
representar como ha interferido la IA en el descubrimiento de fármacos, menciona cómo se han
utilizado varios métodos asistidos por computadora en el descubrimiento de nuevos fármacos.
Mediante el aprendizaje profundo, con redes neuronales artificiales y capas de procedimientos
ocultos que permiten identificar y analizar nuevas aplicaciones para la medicina moderna, presentan
el estado actual de la IA en quimio informática y dentro de los temas presentan una relación
cuantitativa estructural, basado en la estructura, el diseño molecular y la predicción de la síntesis
química. En concreto para él año 2021 Jiménez et al, presentan en su artículo la relación
cuantitativa estructura-actividad (QSAR/QSPR) basada en ligandos, así como el modelado basado
en estructuras, el diseño molecular de novo y la predicción de síntesis, que son clasificadas como
metodologías clásicas en él estudio y creación de fármacos, y abriendo el paso a la presentación de
37
las metodologías nuevas, y modelos que pueden reemplazar él como se plantean las mejoras en los
análisis de datos como lo es para él caso de QSAR/QSPR donde le IA entra mediante el uso de
redes neuronales en gráficas, modelos de convolución 3D hay sistemas multivariables y adaptativos.
para él caso del diseño de fármacos Novo se hace uso de modelos híbridos que no estén ligados a
las reglas y permitan plantear diferentes correlaciones, y enfoques de redes neuronales recurrentes;
y para él caso de la predicción de síntesis se replantea de igual manera con los métodos no ligados a
reglas y enfoques NLP o MCTS
En continuación, con los estudios para el descubrimiento de fármacos, se tiene él artículo de los
autores Fabio Boniolo et al, publicado el 2 de junio de 2021. Donde buscan la medicina precisa, él
cual es el concepto de tratar enfermedades basado en factores ambientales, estilos de vida y perfiles
moleculares de los pacientes. Este enfoque se ha encontrado que aumenta las tasas de éxito en
ensayos clínicos y acelera las aprobaciones de medicamentos. Las aplicaciones actuales de
medicina de precisión en la etapa temprana del descubrimiento de medicamentos utilizan sólo
algunos biomarcadores moleculares para tomar decisiones, mientras que las clínicas se preparan
para capturar el panorama molecular completo de los pacientes en un futuro cercano. Para adaptar el
desarrollo de medicamentos a la heterogeneidad de los pacientes en función de sus perfiles
moleculares, los algoritmos de IA son la próxima frontera en medicina de precisión. Permitirán un
enfoque completamente personalizado en el diseño de medicamentos, impactando en última
instancia la práctica clínica.
El ML dentro del estudio se puede clasificar en aprendizaje supervisado, donde se conocen las
observaciones fenotípicas y se buscan relaciones entre las características de entrada y estas
observaciones. En contraste, el aprendizaje no supervisado tiene como objetivo descubrir patrones
ocultos en los datos mediante la agrupación o el modelado de factores latentes para explicar la
variabilidad observada. Junto a estos dos paradigmas fundamentales del ML, el aprendizaje por
refuerzo gana más relevancia en las ciencias biotecnológicas, especialmente en el desarrollo de
medicamentos, permitiendo que el modelo tome acciones, como introducir una alteración en el
38
aminoácido, en un entorno pre especificado (una proteína) para optimizar una propiedad específica
(eficacia). A diferencia de la mayoría de los otros métodos de ML, las redes neuronales profundas
pueden extraer automáticamente patrones altamente complejos de todo tipo de datos. Son exigentes
en cuanto a la cantidad de datos y a menudo resultan incomprensibles en cuanto a cómo llega una
red de aprendizaje profundo a sus conclusiones.
Sin embargo, dentro de las aplicaciones que menciona Boniolo, son altamente no lineales y, por lo
tanto, más desafiantes de interpretar. Para superar esto, ha surgido un subcampo llamado IA
explicativa, que estudia y desarrolla métodos para comprender mejor cómo los algoritmos de IA
llegan a sus conclusiones. Estos enfoques han tenido un gran impacto en muchas áreas de aplicación
de alto riesgo, como la medicina de precisión. Sin embargo, este campo aún está en sus primeras
etapas, especialmente para modelos complejos como las redes neuronales profundas (Boniolo et al.,
2021).
Los autores Tanoli et al, se centran en los métodos supervisados de ML e IA que hacen uso de bases
de datos y recursos de información disponibles públicamente. Aunque la mayoría de las
aplicaciones de ejemplo se encuentran en el campo de las terapias con medicamentos contra el
cáncer, los métodos y recursos revisados son ampliamente aplicables también a otras indicaciones,
incluido el tratamiento de la COVID-19. Se hace especial hincapié en el uso de perfiles de actividad
diana completos que permitan un proceso de reutilización sistemática ampliando el perfil diana de
los fármacos para incluir objetivos externos potentes con potencial terapéutico para una nueva
indicación. La escasez de datos clínicos de los pacientes y el enfoque actual en las aberraciones
genéticas como objetivos primarios de los medicamentos pueden limitar el rendimiento de los
enfoques de reutilización de medicamentos contra el cáncer que se basan únicamente en la
información basada en la genómica. Las pruebas funcionales de las células de los pacientes con
39
cáncer expuestas a un gran número de terapias dirigidas y sus combinaciones proporcionan una
fuente adicional de información de reutilización para los enfoques de IA conscientes de los tejidos.
Mediante esta descripción se da el uso de modelos supervisados de aprendizaje, con los recursos de
datos correspondientes, para tres niveles de tareas de predicción relacionadas con el proceso de
reutilización de fármacos. Primero, predicciones de bioactividad bioquímica para nuevos DTI; en
segundo lugar, predicciones de respuesta de compuestos basados en células para interacciones de
fármaco-línea celular/paciente; y tercero, predicciones de reutilización de fármacos por medio de
nuevas relaciones entre fármacos y enfermedades (Tanoli et al., 2021).
Dentro de las investigaciones para la mejora de productos farmacéuticos, como lo es las medicinas
orales, destaca el tema por los autores Hellen Mazur et al, publicado el 30 de junio de 2023, en
donde busca diseñar medicinas impresas de forma 3D, en la que pueda aplicarse la IA y ML.
En el estudio, se exploran las aplicaciones de redes neuronales artificiales (ANN) para predecir
geometrías adecuadas en la impresión 3D de formas de dosificación personalizadas. Las formas de
dosificación 3D impresas son ventajosas debido a su diseño de geometría variable, y la relación área
superficial/volumen, se imprimieron filamentos con un 5% de carga de principio activo y alcohol
polivinílico utilizando la técnica de modelado por deposición fundida para obtener una variedad de
geometrías con diferentes dosificaciones y relaciones SA/V, además se presenta cómo se produjo un
filamento que contenía el fármaco mediante extrusión de doble tornillo co-rotatorio utilizando una
matriz fabricada internamente con un diámetro de 1.85 mm, El filamento cargado con el fármaco se
imprimió en una impresora 3D FDM (Modelado por Depósito Fundido), estas formas se diseñaron
teniendo en cuenta la relación SA/V utilizando el diseño asistido por computadora (CAD). Las
geometrías impresas se describieron numéricamente de la manera más precisa posible para su
procesamiento utilizando ANN. Los parámetros registrados fueron el área superficial (SA), el
volumen (V), la relación SA/V, el peso total y la masa del API (mg total y mg del API), la altura de
la capa (lh) y el ancho de extrusión (ew) como parámetros de impresión, el número total de capas, la
longitud, altura y ancho de la geometría 3D, así como el diámetro de los poros y su área superficial,
la cantidad de capas de viga, su altura y la cantidad de cilindros/cilindros huecos conectados por las
vigas.
Para la predicción en primer lugar, se intentó predecir la forma con la mayor precisión posible con
etiquetas de clase, el siguiente paso, se utilizó el diámetro exacto, la altura, el ancho, el número de
40
poros, etc., para reproducir la apariencia de una geometría posible, con la que sea posible crear
fármacos, mediante la técnica de modelado por deposición fundida tomando en cuenta la relación
de área superficie y volumen. Los parámetros de impresión y las características geométricas se
describieron numéricamente para su procesamiento con redes neuronales artificiales. El objetivo
final es crear formas de dosificación efectivas y personalizadas mediante la tecnología de impresión
3D (Mazur et al., 2023).
El ML también representa no solo el estudio de fármacos de forma general, sino que también
permite estudiar el ciclo de vida, como lo plantean los autores Ola Spjuth et al en su artículo
publicado el 31 de mayo de 2021. En donde, mencionan como el descubrimiento de fármacos cada
vez es más necesario volver a entrenar continuamente los modelos y ponerlos a disposición en
entornos de producción. En su artículo se describe cómo la computación en nube puede ayudar al
ciclo de vida del ML en el descubrimiento de fármacos. Los autores analizan las oportunidades que
ofrecen él almacenamiento y los flujos de trabajo científicos, introducen el concepto de MLOps y
describen cómo puede facilitar un modelado ML reproducible y robusto en las organizaciones de
descubrimiento de fármacos.
Como cierre se presenta que la computación en la nube tiene ventajas prácticas y económicas para
el descubrimiento de medicamentos, al permitir a las organizaciones utilizar recursos informáticos
41
de manera flexible sin tener que administrarlos internamente. Esto proporciona escalabilidad,
eficiencia y agilidad en el proceso de descubrimiento de medicamentos (Spjuth et al.,2021).
42
En el artículo sobre la determinación automática del estado de seguridad alimentaria: análisis de
datos de encuestas de hogares basado en el ML; por los autores Abdul Razzaq et al, publicado el 5
de mayo de 2021 plantea que la seguridad alimentaria de los hogares es un problema importante en
países en desarrollo como Pakistán; se tienen problemas sobre la disponibilidad y utilización de los
alimentos. No existe ningún método automatizado para la decisión del estado de seguridad
alimentaria; es por ello qué se utiliza el ML por su grado de rendimiento y su precisión. La
metodología empleada se basó principalmente en las zonas rurales de la provincia de Punjab, que es
un a provincia muy poblada en Pakistán; el propósito principal de la selección de Punjab fue debido
a su participación en la agricultura nacional en el PIB, que es del 51% en la economía nacional y la
producción de cultivos. El estudio se llevó a cabo mediante una técnica de muestreo estratificado en
varias fases para seleccionar zonas y 756 hogares agrícolas; esto se realizó en la primera fase. En la
segunda fase a través de la técnica de muestreo intencional estratificado se seleccionaron 12 zonas
de un total de 36, la tercera etapa se seleccionó 4 aldeas aleatoriamente y en la cuarta 12 casas de
cada aldea; lo cual sirve como la alimentación de los modelos de IA y ML.
En su metodología, Razzaq et al. proponen el uso de algoritmos de selección, como Naive Bayes,
máquinas de vectores de soporte, bosques aleatorios, regresión logística y redes neuronales, para
analizar los datos de las encuestas. Entre estos algoritmos, se seleccionó bosques aleatorios debido a
su simplicidad, flexibilidad y capacidad para la regresión, clasificación y predicción en el ML.
Como resultado se obtiene una aplicación móvil mediante algoritmos de ML para determinar de
manera automática el estado de la seguridad alimentaria; la aplicación propuesta es útil para apoyar
una alimentación sana, reducir la malnutrición y mejorar el estado general de salud y nutrición de la
población del país (Razaq et al., 2021).
43
La metodología de análisis bibliométrico presentada por Ribalta se basa en estudios previos y
permite obtener conclusiones estadísticas en diferentes casos de estudio. Los resultados obtenidos
en este estudio ayudarán a identificar avances y brechas en la aplicación de modelos de ML en
sistemas de alcantarillado, lo que impulsará la competitividad en la creación de mejores modelos
basados en datos y acercará soluciones aplicables. El análisis bibliométrico revela deficiencias
actuales en el dominio, y a partir de los resultados obtenidos se pueden identificar las limitaciones
actuales y proponer mejoras para futuras investigaciones.
Los resultados muestran una tendencia creciente en los artículos publicados que estudian el dominio
y señalan lagunas de conocimiento relacionadas con el uso adecuado de los datos, la necesidad de
modelos capaces de generalización y la exploración de técnicas novedosas en el futuro. Ribalta
destaca cómo el registro histórico de la degradación de las tuberías de alcantarillado proporciona
información para que un modelo de ML pueda predecir futuras fallas. La mayoría de los estudios
utilizan informes de inspección históricos para determinar si una tubería requiere atención
inmediata. (Ribalta et al., 2022).
44
pueden obtener información para optimizar la productividad de los activos individuales y de la
operación de fabricación en su totalidad.
Cada vez hay una mayor conciencia de que los plásticos o polímeros sintéticos forman parte de
nuestra vida cotidiana en diversos niveles debido a su versatilidad y bajo costo. En los últimos 30
años, su consumo ha aumentado casi 20 veces en múltiples aplicaciones industriales. Una estrategia
para enfrentar esta alta demanda es el uso de la informática de polímeros, como lo exponen los
autores F. Cravero et al en su artículo publicado el 03 de febrero de 2022. La informática de
polímeros es una disciplina emergente que se ha beneficiado del fuerte desarrollo de la ciencia de
datos en la última década.
Los métodos de ML son útiles para inferir modelos QSPR (Relaciones Cuantitativas Estructura-
Propiedad). El QSPR es una de las metodologías más utilizadas para el modelado molecular de
polímeros. Una vez validados, estos modelos se aplican para predecir propiedades de nuevos
compuestos. Las principales ventajas de los modelos QSPR son la reducción de tiempo y costo al
permitir el diseño computacional previo a la síntesis y la predicción de propiedades mecánicas
relacionadas con el perfil industrial de los materiales poliméricos en función de sus unidades
estructurales repetitivas (SRU). Sin embargo, la estructura química de la SRU es solo uno de los
muchos factores que afectan la utilidad industrial de un polímero. Otros factores igualmente
relevantes son el peso molecular del polímero, la distribución del peso molecular y el método de
producción, que están relacionados con la polidispersidad inherente de este tipo de material. Por
45
esta razón, la caracterización computacional utilizada en la construcción de modelos QSPR para
predecir propiedades mecánicas debe considerar estos factores principales. El objetivo de este
documento es resaltar los avances recientes en la ciencia de datos para abordar la inclusión de
información de polidispersidad en el modelado QSPR de materiales poliméricos. Se explican dos
dimensiones de discusión: representación de datos y problemas algorítmicos.
En la primera dimensión, se explica cómo se pueden aplicar diferentes estrategias para incluir datos
de polidispersidad en los descriptores moleculares que caracterizan a los polímeros. Los dos
enfoques de representación de datos diseñados se denominan descriptores moleculares trivaluados y
multivaluados. En la segunda dimensión, se proponen algoritmos para manejar estas nuevas
representaciones de descriptores moleculares durante la construcción de los modelos QSPR. Por lo
tanto, se presenta una metodología comprensible e integral para abordar los desafíos que plantea la
polidispersidad en el modelado QSPR de las propiedades mecánicas de los polímeros. Como
resultado, se obtiene la predicción de propiedades objetivo de materiales desconocidos antes de la
síntesis, basándose en los descriptores moleculares ya conocidos. Actualmente, el QSPR se aplica
ampliamente en diversos estudios, como la creación de bases de datos multifuncionales basadas en
la intención del diseño y la predicción de propiedades ópticas importantes en materiales orgánicos.
(Cravero F et al., 2022)
Durante las últimas dos décadas, la investigación sobre microbiomas ha sido fundamental para
comprender la relación entre la microbiota y la salud humana. La microbiota, que incluye bacterias,
virus, hongos, arqueas y protozoos, coloniza diversas áreas del cuerpo humano y tiene un impacto
significativo en la salud y el metabolismo. Los estudios publicados diariamente han revelado la
conexión entre un desequilibrio en el microbioma y diversas enfermedades. En su artículo
publicado el 30 de enero de 2021, Laura McCoubrey et al describen cómo el ML se utiliza en el
desarrollo de terapias dirigidas a la microbiota. El ML, una rama de la IA, ofrece potentes técnicas
para el análisis de grandes volúmenes de datos y la realización de predicciones más allá de las
capacidades humanas. Esta revisión se centra en la aplicación del ML para el desarrollo de terapias
enfocadas en la microbiota.
Con la secuenciación genómica y el mapeo metabolómico, los datos masivos se han convertido en
una realidad en la investigación sobre la microbiota desde principios de la década de 2000. El
impacto del metabolismo de la microbiota en los medicamentos ha surgido como un tema relevante
que puede transformar el modelado farmacocinético. Con más de 10,162 datos disponibles
46
actualmente, es crucial utilizar herramientas sistemáticas, precisas e imparciales para el análisis. El
ML ofrece una forma accesible de interpretar los metadatos y utilizarlos para resolver problemas
(McCoubrey et al., 2021).
3.1.3. Educación
En la educación, la IA se utiliza para optimizar la enseñanza y mejorar el aprendizaje de los
estudiantes mediante el uso de herramientas tecnológicas. Esto permite personalizar la educación,
adaptándola a las necesidades individuales de cada estudiante y proporcionando retroalimentación
instantánea. Además, el ML permite analizar grandes cantidades de datos educativos para
identificar patrones y tendencias que ayuden a mejorar los métodos de enseñanza.
Hoy en día la educación junto con la IA está tomando nuevos rumbos de los cuales ha permitido
que los estudiantes se formen de una manera diferente como lo expone Mark Tintero en su artículo
publicado el 25 de noviembre del 2019, dónde emplean la herramienta STEAM para formar
nuevos ingenieros con pensamientos creativos e innovadores combinando las asignaturas
tradicionales STEM; science, technology, engineering and mathematics con las artes; se plantea un
marco multidisciplinario unido a prácticas pedagógicas de las Artes y el Diseño que centra el
aprendizaje en las ciencias humanas, las ciencias naturales, la artesanía y el pensamiento de diseño
para proporcionar una formación integral en ingeniería basada en competencias técnicas. La
metodología STEM tiene como objetivo que los estudiantes adquieran habilidades de resolución de
problemas que abarquen la brecha entre disciplinas basadas en el diseño, como la arquitectura, y la
ciencia de la ingeniería fundamentada en teorías académicas. La IA tampoco resulta indiferente en
el ámbito educativo, habiendo encontrado en las herramientas tecnológicas vanguardistas una
palanca para optimizar el desempeño de la docencia y mejorar el aprendizaje del alumnado; es por
ello que la metodología STEM va de la mano con la IA para formar mejores profesionales (Tintero
M., 2019).
47
En la ingeniería de Productos Químicos (CPE) se enfrentan grandes desafíos: uno de estos es la
complejidad de la relación entre propiedades, estructura y la composición de materiales y la
creciente necesidad de descubrir y desarrollar rápidamente nuevas moléculas y materiales según los
estudios y su demanda de resultados. Las herramientas que brinda la IA a partir de ML como lo son:
aprendizaje supervisado, aprendizaje no supervisado y semi supervisado entre otros han permitido
abordar problemas complejos en diversas áreas, como la visión artificial y el procesamiento del
lenguaje natural. Esto lo exponen los autores Cindy T. et al, donde plantean en su artículo una
revisión actualizada del estado del arte en la implementación de técnicas de ML en diferentes tipos
de problemas de CPE con un enfoque particular en cuatro dominios específicos a saber, el diseño y
descubrimiento de nuevas moléculas y materiales, el modelado de procesos, la predicción de
procesos químicos reacciones/retrosíntesis y el apoyo al análisis sensorial. Las metodologías
planteadas en la revisión de este artículo brindan lineamientos generales para la selección de una
técnica de ML apropiada dadas las características de cada problema y una revisión de varios temas
clave asociados con el desarrollo de ML en enfoques de modelado como: Cosméticos utilizando el
método (ANN), moléculas utilizando el método (RNN), polímeros (ANN), líquidos iónicos (ANN)
entre otros. De manera más general, el estado del arte destaca la gran diversidad en términos de las
características de los datos entre los diferentes dominios dados. Esto proporcionó diversos enfoques
alternativos de ML para los distintos tipos de problemas y características de datos (Trin et al.,
2021).
Los autores Pablo R. et al exponen en su artículo como una red neuronal recurrente aprende a
contar. Dónde las arquitecturas de procesamiento distribuido paralelo (PDP) demuestran una
alternativa potencialmente radical para la sustitución de las teorías convencionales de
procesamiento del lenguaje las cuales se basan en modelos computacionales en serie. Este artículo,
tiene como objetivo principal emplear técnicas de entrenamiento de retropropagación estándar para
una red neuronal recurrente (RNN). Parte de las metodologías que emplean son métodos con un
sistema dinámico de tiempo discreto. En cada paso de tiempo hay un vector de valores de entrada,
un vector de valores de unidad de copia y una entrada de sesgo que alimentan un conjunto de
funciones de activación sigmoideas que actualizan el vector de valores de unidad ocultos. Si los
parámetros los datos de cada red neuronal son deshabilitados (Datos congelados) y los valores de
entrada se mantienen constantes durante varios pasos de tiempo, entonces los valores ocultos de
activación de la unidad son las variables de estado en un diagrama de espacio de fases. El análisis
del artículo demuestra una aplicación de la teoría de sistemas dinámicos al estudio de RNN que
ayuda a identificar propiedades de las trayectorias que pueden ser especialmente relevantes para la
48
capacidad de aprendizaje y la representación de modelos conexionistas de procesamiento del
lenguaje, los resultados demuestran cómo una RNN puede implementar el tipo de soluciones
utilizadas en el análisis del reconocedor dinámico formal. Específicamente, se muestra que un RNN
que realiza una tarea de predicción puede aprender a procesar un lenguaje libre de contexto
determinista simple (Rodríguez et al.,2010).
49
4.1.1. Clasificación de riesgos: Rombo NFPA 704
La NFPA (National Fire Protection Association) es una entidad internacional voluntaria creada
para promover la protección y prevención contra el fuego. Esta entidad establece un sistema de
identificación de riesgos para que en un eventual incendio o emergencia (o para análisis de
prevención, antes de que suceda una emergencia), las personas afectadas puedan reconocer los
riesgos de los materiales y su nivel de peligrosidad respecto del fuego y diferentes factores. La
norma establecida representa gráficamente a través de un rombo seccionado en cuatro partes de
diferentes colores, los grados de peligrosidad de la sustancia a clasificar. A continuación, en la
figura 4.1, se muestra el rombo y sus diferentes clasificaciones:
.
Figura 4.1. Diamante de peligro NFPA 704. Adaptado de Periodni [2018].
El sistema consiste en asignar colores y números, y dar una clasificación a un producto, manejando
una escala del 0 al 4, dependiendo del grado de su peligrosidad. Cada uno de estos peligros está
asociado a un color específico. El rombo de color azul está asociado al peligro de salud, el de color
rojo se asocia con el peligro de inflamabilidad, el de color amarillo con el peligro de inestabilidad.
A estas tres divisiones se les asigna un número de 0 (sin peligro) a 4 (peligro máximo). En la
sección blanca puede haber indicaciones especiales para algunos materiales, indicando que son
oxidantes, ácidos, alcalinos, corrosivos, reactivos con agua o radiactivos.
Riesgos a la salud
Se refiere a la capacidad de un material de causar daño a la salud a través del contacto o de las
diferentes vías de entrada al cuerpo, como son la inhalación, ingestión y contacto dérmico
(Laboratorio Químico, 2023). En la tabla 4.1. se muestran el grado de peligro según riesgos a la
salud:
50
4 Mortal.
3 Muy peligroso.
2 Peligroso.
1 Poco peligroso.
0 Sin riesgo.
Fuente: Elaboración propia. Adaptado de Laboratorio Químico [2023].
Riesgo de inflamabilidad
La inflamabilidad se refiere al grado de susceptibilidad de los materiales a quemarse. Algunos
materiales pueden arder bajo condiciones específicas, pero no lo podrán hacer bajo otras
(Laboratorio Químico, 2023). Esto se demuestra en los valores de la tabla 4.2 que contiene los
riesgos según su inflamabilidad:
Tabla 4.2. Riesgos de incendio según su inflamabilidad.
Riesgo de incendio Concepto
4 Debajo de 25 °C.
3 Debajo de 37 °C.
2 Debajo de 93 °C.
1 Sobre 93 °C.
0 No se inflama.
Fuente: Elaboración propia. Adaptado de Laboratorio Químico [2023].
Riesgo de inestabilidad
Se refiere a la susceptibilidad intrínseca de los materiales a liberar energía. Aplica a todos aquellos
materiales capaces de liberar energía rápidamente por ellos mismos a través de una auto reacción o
polimerización (Laboratorio Químico, 2023). Los valores de riesgo de incendio según su
inestabilidad se plantean en la tabla 4.3:
51
Fuente: Elaboración propia. Adaptado de Laboratorio Químico [2023].
Riesgos específicos
Los peligros especiales se refieren a la reactividad con el agua, propiedades oxidantes de los
materiales que causan problemas especiales, y sustancias alcalinas (Laboratorio Químico, 2023). A
continuación, la tabla 4.4 contiene los valores de los riesgos específicos según su peligro especial:
Una vez identificada la herramienta de base de datos, se interactúa con la interfaz virtual para
buscar tablas adecuadas que se utilizarán en los modelos de ML. Se seleccionan bases de datos con
suficiente extensión y columnas para realizar correlaciones, descartando aquellas con menos de
1000 datos y menos de 3 columnas. Durante la búsqueda, se identificaron temas relevantes como las
52
tablas críticas de Knovel (2ª edición) (Knovel, 2023) que contienen datos sobre propiedades
termodinámicas de sustancias inorgánicas, entalpías y entropías de formación de compuestos
orgánicos e inorgánicos en fases condensadas y constantes físicas y termodinámica de las
transiciones de fase. Estas bases de datos se consideraron aplicables a la ingeniería química y fueron
seleccionadas para futuros estudios (datos corregidos).
Para el caso de aplicación con la metodología de ML en la ingeniería química, se opta por la tabla
de disolventes de Knovel: una base datos de propiedades que cuenta con los requisitos mencionados
anteriormente en respecto a los factores de descarte de las tablas presentes en la plataforma de
Knovel.
Los requisitos de cantidades o volúmenes de datos, no es el único, puesto que las columnas deben
ser las adecuadas y contar con valores asociables a medidas cuantitativas para realizar las
correlaciones, siendo necesario que luego de identificar las tablas sean trabajadas para elaborar un
formato acorde y adecuado para la incorporación a la interfaz del ML. Esto puede verse paso a paso
con pequeños detalles sobre la depuración y formalización del documento en el flujograma de la
figura 4.2:
53
Figura 4.2 Flujograma del desarrollo del ejemplo de clasificación. Fuente elaboración propia .
54
Para poder identificar los resultados y la notoriedad de la eficiencia del método, se tiene el valor de
la certeza a partir de métodos de R 2, análisis comparativos y regresiones lineales, con más de 1
variable. En términos generales, el procedimiento descrito en el flujograma puede condensarse de la
siguiente forma:
Selección de categorías, o variables para llevar a cabo la clasificación. En este caso, el índice de
inflamabilidad. Es una variable discreta, ya que solo puede tomar una seria limitada de valores.
55
Figura 4.3. Gráfico de K vecino ajustado. Adaptado de Jupyter notebook [ 2023].
56
CAPÍTULO 5. CONCLUSIONES Y RECOMENDACIONES
5.1. Conclusiones
A la luz de los hallazgos del trabajo, puede concluirse que la IA y el ML en particular son
herramientas que ofrecen una serie de beneficios significativos en la optimización de
procedimientos. Estas tecnologías permiten mejorar la eficiencia, reducir errores, optimizar el uso
de recursos, generar predicciones precisas e identificar oportunidades de mejora en múltiples tipos
de procesos. En el campo de la ingeniería química, se ha comprobado que el ML puede ser utilizado
para predecir propiedades y variables clave en diversos procesos, incluyendo propiedades
mecánicas, químicas, fisicoquímicas y termodinámicas. Al utilizar algoritmos y modelos de
aprendizaje automático, es posible aprovechar grandes conjuntos de datos y obtener resultados
precisos y rápidos en comparación con métodos convencionales de análisis. Esto abre nuevas
posibilidades para mejorar los procesos y tomar decisiones más informadas en la industria química.
El método de k vecinos más cercanos se puede aplicar de forma iterativa para identificar el mejor
modelo de clasificación para una serie de datos. Un valor de k demasiado pequeño puede clasificar
erróneamente los puntos analizados, mientras que un valor demasiado grande puede sobre
especificar el problema y agrupar datos que en realidad no guardan similitud importante entre sí.
Para el ejemplo planteado, un valor de k igual a 7 mostró el mejor valor de evaluación de precisión
del modelo. El modelo construido clasificó adecuadamente las muestras y predijo satisfactoriamente
el índice de inflamabilidad en el conjunto de prueba.
57
5.2. Recomendaciones
Se recomienda llevar a cabo la búsqueda y la evaluación de otras herramientas o ramas de la IA
y el ML, como por ejemplo el procesamiento de lenguaje natural, árboles de decisión, máquinas
de soporte vectorial, etc. a fin de identificar las potencialidades de estas técnicas en la
resolución de problemas de la ingeniería química.
Se recomienda para trabajos posteriores darle continuidad a este tema, explorando el potencial
de aplicación de la técnica usada en el ejemplo de este trabajo, para la resolución de otros tipos
de problemas, explorando más profundamente las series de datos contenidas en fuentes como
las consultadas para la realización de este.
58
REFERENCIAS
ACSPublications (5 de julio de 2022). Mejora de la precisión de los métodos compuestos: un
método G4MP2 con precisión similar a G4 e implicaciones para el aprendizaje automático.
Obtenido de [Link]
ACSPublications. (15 de Julio de 2014). Parámetros del modelo de interacción de dos líquidos no
aleatorios generalizados (NRTL) para predecir el comportamiento de equilibrio líquido-líquido.
Obtenido de [Link]
Alamoudi, M. (6 de diciembre de 2022). Modelado de los niveles de calidad del dióxido de azufre
(SO2) de la ciudad de Jeddah utilizando enfoques de aprendizaje automático con factores
meteorológicos y químicos. Obtenido de ProQuest One Academic: Procesos
[Link]
Alvarado, R., & Llenera, J. (1 de octubre de 2021). Revisión de la literatura sobre el uso de
Inteligencia Artificial. Obtenido de Universidad Politécnica Salesiana:
[Link]
Álvarez Corredera, P. (10 de enero de 2023). Evolución de la IAy Alan Turing. Obtenido de
[Link]
59
Boniolo, F et al (02 de junio de 2021). IA en el descubrimiento temprano de fármacos que permite
la medicina de precisión. Obtenido de Taylor&Francis en línea:
[Link]
Chadaga, K., & Prabhu, S. (03 de junio de 2021). Luchando contra COVID-19 utilizando el
aprendizaje automático: una revisión. Obtenido de
[Link]
da Silva, D. (28 de abril de 2021). Inteligencia Artificial: la guía para entender su historia y
evolución. Obtenido de:
[Link]
%C3%B3n%20que%20realizan%20determinadas,para%20clasificar%20la%20inteligencia
%20artificial.
60
Diaz, K. (12 de Julio de 2020). La aplicación de la IA en salud. Obtenido de
[Link]
%20demostrado%20ser,wearables%20y%20otros%20dispositivos%20electr%C3%B3nicos.
elternativa. (2023). Breve historia de la inteligencia artificial: origen, datos y auge de la IA.
Obtenido de [Link]
Escabia, G. et al (01 de junio de 2022). Acoplamiento oxidativo de azufre del desarrollo del
proceso de metano y su modelado mediante aprendizaje automático. Obtenido de Biblioteca en
línea de AIChe: [Link]
Farrán Morales, M. Á., & León Cabanillas, S. (25 de junio de 2019). Machine learning aplicado a
la química. Obtenido de: [Link]
García, J. M. (17 de junio de 2019). IA como clave para la preservación del medio ambiente y de la
industria forestal. Obtenido de
[Link]
la-preservacion-del-medio-ambiente-y-de-la-industria-forestal/
61
Gracheva, E. et al (29 de noviembre de 2021). Predicción del coeficiente de expansión térmica
lineal de los homopolímeros amorfos a partir de la estructura química. Obtenido de
Taylor&Francis En línea: [Link]
Hu, K. et al (07 de febrero de 2023). Estimación de la resistencia a la tracción de hojas de papel
hechas de madera reciclada y fibras no madereras mediante aprendizaje automático. Obtenido de
Taylor&Francis En línea: [Link]
62
López, S et al (26 de mayo de 2021). Equilibrio termodinámico vapor-líquido en mezclas de agua y
nafta. Obtenido de ProQuest: Procesos
[Link]
Mazur, H. et al (16 de febrero de 2023). Investigaciones sobre el uso del aprendizaje automático
para predecir el diseño de formas de dosificación de medicamentos para obtener los perfiles de
liberación deseados para medicamentos orales impresos en 3D. Obtenido de Taylor&Francis En
línea: [Link]
63
Pascual, J. (2004). La barrera hematoencefálica: desarrollo de una estructura que permite la
heterogeneidad funcional del sistema nervioso central. Obtenido de
[Link]
Pierre, G. (2015) APLICACIÓN DEL APRENDIZAJE PROFUNDO (“DEEP LEARNING”) AL
PROCESAMIENTO DE SEÑALES DIGITALES. Obtenido de
[Link]
Ponce Gallegos, J., & Torres Soto, A. (2014). IA. México, D.F: Libros de Texto abiertos LATIn.
Rodríguez, P. et al (01 de julio de 2010). Una red neuronal recurrente que aprende a contar.
Obtenido de Taylor&Francis en línea:
[Link]
64
SALESFORCE (22 de junio de 2017). Inteligencia Artificial: ¿Qué es? - Blog de Salesforce.
Obtenido de [Link]
Sanggil, P. et al (26 de abril de 2022). Aplicaciones de aprendizaje automático para reacciones
químicas. Obtenido de Biblioteca en línea Wiley:
[Link]
Sol, Z et al (30 de marzo de 2022). Cálculo y diseño acelerado por aprendizaje automático de
electrocatalizadores para la reducción de CO2. Obtenido de Biblioteca en línea Wiley:
[Link]
Tapias García, H. (2019). Ingeniería química: escenario futuro y dos nuevos paradigmas. Obtenido
de: [Link]
%[Link]?sequence=1
The royal society (2017). Aprendizaje automático: el poder y la promesa de computadoras que
aprenden. Obtenido de: [Link]
publications/[Link]
Tintero, M. et al (25 de noviembre de 2019). STEAM: sin aire caliente: estrategia para formar
ingenieros creativos. Obtenido de Taylor&Francis en línea:
[Link]
65
Trin, C. et al (20 de agosto de 2021). Aprendizaje automático en ingeniería de productos químicos:
el estado del arte y una guía para principiantes. Obtenido de ProQuest One Academic: MDPI
Procesos: [Link]
Wang, Y. et al (08 de abril de 2022). Aplicación del aprendizaje de redes neuronales profundas en
el diseño de materiales compuestos. Obtenido de Taylor&Francis En línea:
[Link]
Yajing, S., & Hu, W. (29 de octubre de 2021). Nuevo marco de aprendizaje automático para la
predicción de la conductividad térmica mediante un conjunto integrado de convolución de gráficos
de cristal. Obtenido de Biblioteca en línea Wiley:
[Link]
Yan, L. (19 de junio de 2020). Predicción de la tasa de corrosión y los factores asociados, de
aceros de baja aleación en condiciones de atmósfera Marina, mediante el uso del aprendizaje
automático. Obtenido de Taylor&Francis En línea:
[Link]
66
GLOSARIO
1. Big Data: Es un término amplio para conjuntos de datos tan grandes o complejos que las
aplicaciones tradicionales de procesamiento de datos no son suficientes. Engloba el análisis, la
captura, la autentificación de datos, búsqueda, intercambio, almacenamiento, transferencia,
visualización, consulta y privacidad de la información (ARIMETRICS, 2022).
2. Barrera hematoencefálica: Puede definirse como una propiedad funcional de los vasos
sanguíneos del SNC, por la que se impide el intercambio libre de iones y moléculas orgánicas
entre el plasma sanguíneo y el tejido nervios (Pascual, 2004).
4. Delaminación: La Delaminación se refiere a la separación de capas entre sí, por ejemplo, de una
resina de un laminado o de fibras de una resina. Estos procesos provocan defectos en circuitos
impresos o tarjetas electrónicas (NETZSCH, 2022).
6. Extrusión: La extrusión es un proceso usado para crear objetos con un perfil de sección
transversal fija en donde un material es empujado o jalado a través de un dado con la sección
transversal deseada. Las dos ventajas principales de este proceso sobre otros procesos de
fabricación son su capacidad de crear secciones transversales muy complejas y trabajar con
materiales frágiles (quebradizos) ya que el material sólo se somete a esfuerzos de compresión y
de fricción (TodoenPolímeros, 2015).
69
7. G4MP2: Método compuesto de química cuántica confiable y preciso para el cálculo de energías
moleculares utilizando una aproximación basada en la teoría de perturbaciones de segundo
orden para reducir los costos computacionales (ACSPublications, 2022).
8. KNN: El algoritmo de k vecinos más cercanos, también conocido como KNN o k NN, es un
clasificador de aprendizaje supervisado no paramétrico, que utiliza la proximidad para hacer
clasificaciones o predicciones sobre la agrupación de un punto de datos individual. Si bien se
puede usar para problemas de regresión o clasificación, generalmente se usa como un algoritmo
de clasificación, partiendo de la suposición de que se pueden encontrar puntos similares cerca
uno del otro (IBM, 2018).
70
ANEXOS
71
ANEXO A
Clasificación de temas revisión bibliográfica
A-1
Anexo A. Clasificación de temas revisión bibliográfica
A.1. Contenido de temas
A continuación, en la tabla A.1 se detallan los temas y el objetivo de cada uno:
Tabla A.1. Clasificación de temas y su respectivo objetivo.
TEMAS No
Aprendizaje automático cuántico: de la física a la ingeniería de software 1
Estimación de la resistencia a la tracción de hojas de papel fabricadas con madera reciclada y
fibras que son de madera mediante aprendizaje automático. 2
STEAM sin aire caliente: estrategia para la formación de ingenieros creativos. 3
Análisis espectroscópico para mapear los efectos de los incendios forestales de forma remota
mediante imágenes detectadas del aprendizaje automático 4
Predicción de la tasa de corrosión y los factores asociados, de aceros de baja aleación en
condiciones de atmosfera marina, mediante el uso de aprendizaje automático 5
Predicción del diagrama de transformación por enfriamiento continuo para zonas afectadas
por soladura mediante el uso de aprendizaje automático 6
Simulación energética y análisis de variables del proceso de refinado de celulosa (pulpa) por
procesos termo mecánicos mediante el uso de aprendizaje automático 7
Predicción del coeficiente de expansión térmica lineal de los homopolímeros amorfos a partir
de la estructura química. 8
Modelado de los niveles de calidad del dióxido de azufre (SO2) de la ciudad de Jeddah
mediante enfoques de aprendizaje automático con factores meteorológicos y químicos 9
A-2
Evaluación de contaminantes biológicos en alimentos mediante imágenes hiperespectrales
18
19
Soluciones de aprendizaje automático en sistemas de alcantarillado: un análisis bibliométrico 20
A-3
farmacéutica, con el fin de obtener los perfiles de liberación deseados para los medicamentos
orales impresos en 3D.
Redes neuronales x x x x x x
Relacion con
variables externas x x x x x
Relacion en base a
composición quimica x x x x x x
Ajustes graficos,
representacion
grafica
x x x x x
Relacion en base a
condiciones
medioambientales
x x x x
Simulacion x x x x x
Bosques aleatorios x x
Arboles de decisión x x
Propiedades
mecanicas x x x
Investigacion/
analisis comparativo x
Estudios
farmaceuticos
Aprendizaje
profundo
A-4
No de Tema 11 12 13 14 15 16 17 18 19 20
Estudios principales Educacion Optimización Educacion Optimización Prediccion Educación Prediccion Optimización Optimización Optimización
Estudios principales 4 4 4 4 8 4 5 6 7 8
Redes neuronales x x x x x x x x
Relacion con
variables externas x x x x x x
Relacion en base a
composición quimica x x x x x x
Ajustes graficos,
representacion
grafica
x x x x x
Relacion en base a
condiciones
medioambientales
x
Simulacion x x x x x x
Bosques aleatorios x x x
Arboles de decisión x x x
Propiedades
mecanicas x
Investigacion/
analisis comparativo x x x x x
Estudios
farmaceuticos x
Aprendizaje
profundo x x
A-5
Fuente: Elaboración propia.
A-6
ANEXO B
Codificación ejemplo de aplicación
B-1
Anexo B. Codificación de ejemplos
B.1. Codificación ejemplo de clasificación
A continuación, en la Tabla B.1 se muestra los datos seleccionados para dicha prueba y
posteriormente se muestra el código utilizado.
Tabla B.1. Extracción de base de datos de KNOVEL.
No. PM Temperatura L1 L2 FP Inflamabilidad
662 30.08 472 3 12.5 -135 4
1087 58.12 365 2 8.8 -83 4
1266 44.09 450 1.8 11.2 -80 4
297 86.47 632 0 26.9 -78 0
1706 100.5 232 1 6 -57 4
1370 72.15 468 1.3 7.6 -57 4
203 58.1 287 1.8 8.4 -56 4
1036 72.15 420 1.4 7.6 -51 4
1374 72.15 404 1.4 7.8 -50 4
550 66.05 454 3.9 16.9 -50 4
298 64.5 510 3.6 14.8 -50 4
301 50.49 632 8.1 17.4 -50 4
1701 72.11 202 1.3 28 -46 4
444 74.14 160 1.7 49 -45 4
193 94.9 536 10 16 -44 1
489 46.07 350 3.4 18 -42 4
551 46.07 350 3.4 18 -41 4
4 44.06 140 4 57 -39 4
219 73.14 379 1.5 9.2 -38 3
356 70.1 361 1.1 8.7 -37 3
1291 58.09 449 2.3 36 -37 4
60 59.11 317 2 10.4 -36 3
805 68.08 390 2.3 14.3 -36 4
950 59.11 330 2.3 10 -35 4
1099 88.17 460 1 8 -33 3
1081 86.18 278 1.2 7 -32 3
1029 31.07 430 4.9 20.7 -30 4
49 57.1 370 2.2 22 -29 3
B-2
359 68.12 395 1.5 12.1 -29 3
465 102.2 405 1.4 22 -28 3
1055 60.05 449 5 23 -28 4
243 88.15 460 2.5 15.1 -28 3
1271 58.08 207 2.6 17 -27 3
24 56.07 234 2.8 31 -26 3
877 84.16 253 1.2 6.9 -26 3
423 73.14 312 1.8 10.1 -26 3
234 72.12 370 3.9 20.6 -25.5 3
873 86.18 225 1.1 7.5 -22 3
1080 86.18 264 1 7 -22 3
701 74.1 455 2.7 16.5 -20 3
191 108.97 510 6.75 11.2 -20 1
218 73.1 378 1.4 9.8 -19 3
471 76.1 235 1.6 17.6 -18 3
344 84.2 260 1.3 8.4 -18 3
768 70 419 1.5 8.7 -18 3
698 44.06 429 3 100 -18 4
11 58.09 465 2.2 13 -18 3
675 45.1 385 3.5 14 -17 4
1543 72.12 321 1.8 11.8 -14 3
1026 74.09 454 3.1 16 -13 3
Fuente: Elaboración propia. Adaptado de [Knovel, 2023].
B-3
df . head( )
Out [10]:
B-4