0% encontró este documento útil (0 votos)
23 vistas99 páginas

Original

El documento presenta un estudio sobre la aplicación de técnicas de inteligencia artificial (IA) y aprendizaje automático (ML) en ingeniería química, destacando su capacidad para optimizar procesos y predecir propiedades. Se estructura en cinco capítulos que abordan desde la fundamentación teórica hasta ejemplos prácticos y conclusiones sobre la implementación de estas tecnologías. La investigación busca recopilar datos experimentales y desarrollar modelos predictivos que faciliten la aplicación de IA en el campo químico.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
23 vistas99 páginas

Original

El documento presenta un estudio sobre la aplicación de técnicas de inteligencia artificial (IA) y aprendizaje automático (ML) en ingeniería química, destacando su capacidad para optimizar procesos y predecir propiedades. Se estructura en cinco capítulos que abordan desde la fundamentación teórica hasta ejemplos prácticos y conclusiones sobre la implementación de estas tecnologías. La investigación busca recopilar datos experimentales y desarrollar modelos predictivos que faciliten la aplicación de IA en el campo químico.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

UNIVERSIDAD CENTROAMERICANA

“JOSÉ SIMEÓN CAÑAS”

ESTUDIO DE LA APLICACIÓN DE TÉCNICAS DE LA INTELIGENCIA


ARTIFICIAL Y APRENDIZAJE AUTOMÁTICO EN INGENIERÍA
QUÍMICA.

TRABAJO DE GRADUACIÓN PREPARADO PARA LA


FACULTAD DE INGENIERÍA Y ARQUITECTURA

PARA OPTAR AL GRADO DE


INGENIERO(A) QUÍMICO (A)

POR
ALVARADO FLORES, KENNY ANDERSON
BOLAÑOS MALDONADO, JACQUELINE ANDREA
MONTERROSA MONTERROZA, DANIELA GISSELLE
RAMIREZ DELGADO, KELLY

OCTUBRE, 2023
ANTIGUO CUSCATLÁN, EL SALVADOR, C.A.
RECTOR
ANDREU OLIVA DE LA ESPERANZA, S.J.

SECRETARIA GENERAL
LIDIA GABRIELA BOLAÑOS TEODORO

DECANO DE LA FACULTAD DE INGENIERÍA Y ARQUITECTURA


CARLOS ERNESTO RIVAS CERNA

DIRECTOR DE LA CARRERA DE INGENIERÍA QUÍMICA


ERICK HAROLD RAMOS RIVAS

DIRECTOR DEL TRABAJO


JOSE RAFAEL ALAS OSEGUEDA

LECTOR
GUSTAVO ADOLFO MOZ GALDÁMEZ
RESUMEN
La IA es el campo científico de la informática que se centra en la creación de programas y
mecanismos que pueden mostrar comportamientos considerados inteligentes. En otras palabras, es
el concepto según el cual “las máquinas piensan como seres humanos” (Peñarroya, 2020).
Normalmente, un sistema de IA es capaz de analizar datos en grandes cantidades (información
conocida como Big data), identificar patrones y tendencias y, por lo tanto, formular predicciones de
forma automática, con rapidez y precisión (SALESFORCE,2017). En esa lógica, se puede suponer
que la IA se diversifica en una serie de aplicaciones con las que se interactúa a diario dentro de las
cuales se pueden mencionar (Peñarroya, 2020):

 Reconocimiento facial
 Procesamiento del lenguaje natural
 Navegación de vehículos
 Vida artificial
 Sistemas expertos

En este marco, la presente investigación consiste en la realización de una revisión bibliográfica para
reconocer aplicaciones actuales y potenciales de la IA y particularmente en el ML, en áreas de la
ingeniería química. El interés principal es evaluar la utilización de estas técnicas computacionales
en la predicción de propiedades y en la optimización de procesos. Adicionalmente, se buscaría
recopilar series de datos experimentales de diversos tipos para desarrollar algunos modelos sencillos
de predicción o de clasificación basados en el ML para propiedades fisicoquímicas de sustancias
puras o mezclas

La investigación se ha dividido en cinco capítulos. El Capítulo I, cubre el planteamiento del


problema de investigación y se presentan los objetivos generales y específicos. Además, se detallan
los alcances y los antecedentes de la investigación.

En el Capítulo II, se establece un marco teórico enfocado en los conceptos generales de IA y ML


como una subcategoría de la IA. Entre estos conceptos se encuentra una breve reseña histórica,
descripción, fundamentos y tipos de IA y campos de aplicación en la actualidad.

i
En el Capítulo III, se hace una revisión bibliográfica donde se presentan diversos estudios para
identificar aplicaciones y métodos de la IA y ML, los cuales se van clasificando según el objetivo
de las investigaciones y sus resultados.

En el Capítulo IV, se presentan dos ejemplos sencillos de aplicación para ilustrar de forma simple y
concisa, algunas posibilidades de uso de ML para aplicaciones en docencia dentro de la
Universidad.

Finalmente, el Capítulo V muestra las conclusiones y recomendaciones del trabajo de graduación.

ii
ÍNDICE
RESUMEN............................................................................................................................................i
ÍNDICE DE FIGURAS........................................................................................................................v
ÍNDICE DE TABLAS........................................................................................................................vi
SIGLAS..............................................................................................................................................vii
ABREVIATURAS............................................................................................................................viii
NOMENCLATURA............................................................................................................................x
CAPÍTULO 1. INTRODUCCIÓN.......................................................................................................1
1.1. Planteamiento del problema........................................................................................................1
1.2. Objetivos.....................................................................................................................................2
1.2.1. Objetivo general.........................................................................................................................2
1.2.2. Objetivos específicos.................................................................................................................2
1.3. Límites y alcances....................................................................................................................2
1.4. Antecedentes............................................................................................................................2
CAPÍTULO 2. MARCO TEÓRICO....................................................................................................7
2.1. Historia de la IA.......................................................................................................................7
2.1.1. Origen de la IA.........................................................................................................................7
2.1.2. Evolución de la IA...................................................................................................................8
a) Etapa primaria (1956-1970).....................................................................................................8
b) Etapa de prototipo (1971-1981)...............................................................................................8
c) Etapa de difusión industrial (1981-Actualidad).......................................................................9
2.2. La IA hoy en día.......................................................................................................................9
2.2.1. Año clave para la IA 2025......................................................................................................10
2.3. Clasificación de la IA.............................................................................................................10
2.4. Modelos de la IA....................................................................................................................10
2.4.1. Sistemas que piensan como humanos....................................................................................10
2.4.2. Sistemas que actúan como humanos......................................................................................10
2.4.3. Sistemas que piensan racionalmente......................................................................................11
2.4.4. Sistemas que actúan racionalmente........................................................................................11
2.5. Tecnologías y beneficios basadas en la IA.............................................................................11
2.6. Ramas de la IA......................................................................................................................12
2.6.1. Aprendizaje automático: Machine Learning (ML)...............................................................12
2.6.2. Redes neuronales: Neural Networks.....................................................................................12
a) Aprendizaje supervisado.......................................................................................................12

i
b) Aprendizaje no supervisado.....................................................................................................14
2.6.3. Aprendizaje profundo: Deep Learning....................................................................................14
2.7. Impactos de la IA....................................................................................................................15
2.7.1. Impacto de la IA en el sector económico...............................................................................15
2.7.2. Impacto de la IA en el sector social.......................................................................................15
2.7.3. Impacto de la IA en el sector de la salud................................................................................15
2.7.4. Impactos de la IA en el sector ambiental...............................................................................16
2.8. Aplicaciones generales de la IA y ML...................................................................................16
2.8.1. Aplicaciones en el campo de la ingeniería química...............................................................16
2.8.2. Aplicación en la investigación...............................................................................................18
2.8.3. Aplicaciones en el campo industrial.......................................................................................19
CAPÍTULO 3. REVISIÓN BIBLIOGRÁFICA.................................................................................22
3.1. Clasificación y análisis de temas.............................................................................................22
3.1.1. Predicción...............................................................................................................................22
3.1.2. Optimización..........................................................................................................................36
3.1.3. Educación...............................................................................................................................51
CAPÍTULO 4. EJEMPLO DE APLICACIÓN..................................................................................54
4.1. Presentación del método.........................................................................................................54
4.1.1. Clasificación de riesgos: Rombo NFPA 704...........................................................................54
4.1.2. Ejemplo de clasificación........................................................................................................57
CAPÍTULO 5. CONCLUSIONES Y RECOMENDACIONES........................................................61
5.1. Conclusiones............................................................................................................................61
5.2. Recomendaciones.....................................................................................................................62
REFERENCIAS.................................................................................................................................63
GLOSARIO........................................................................................................................................69
ANEXOS............................................................................................................................................71
Anexo A. Clasificación de temas revisión bibliográfica.................................................................A-1
A.1. Contenido de temas.................................................................................................................A-2
Anexo B. Codificación de ejemplos.................................................................................................B-1
B.1. Codificación ejemplo de clasificación....................................................................................B-2

ii
ÍNDICE DE FIGURAS
Figura 4.1. Diamante de peligro NFPA 704.......................................................................................54
Figura 4.2. Flujograma del desarrollo del ejemplo de clasificación. ……………………………….58
Figura 4.3. Gráfico de K vecino ajustado……………………………………………………………
60

i
ÍNDICE DE TABLAS
Tabla 4.1. Grado de peligro según los riesgos a la salud...................................................................55
Tabla 4.2. Riesgos de incendio según su inflamabilidad……………………………………………55
Tabla 4.3. Riesgo de incendio según la inestabilidad……………………………………………….56
Tabla 4.4. Riesgos específicos según su peligro especial……………………………………………
56
Tabla A.1. Clasificación de temas y su respectivo objetivo............................................................A-2
Tabla A.2. Tabla de análisis de correlaciones..................................................................................A-4
Tabla B.1. Extracción de base de datos de KNOVEL......................................................................B-2

ii
SIGLAS
ANN (Artificial neural network) redes neuronales artificiales
ANFIS (Adaptive neuro fuzzy inference system) sistema de inferencia neurodifuso adaptivo
DT (Decision tree) árboles de decisión
FIS (Fuzzy inference system) sistema de inferencia difusa
ML (Machine learning) aprendizaje automático
PIB Producto interno bruto
PDP (Parallel distributed processing) procesamiento distribuido paralelo
RF (Random forest) bosques aleatorios
RR (Regression ridge) cresta de la regresión
RNN (Recurrent neural network) red neuronal recurrente
STEM (Science, technology, engineering and mathematics) ciencia, tecnología, ingeniería
y matemáticas
STEAM (Science, technology, engineering, art and mathematics) ciencia, tecnología,
ingeniería, arte y matemáticas

iii
ABREVIATURAS
CCT (Continuous cooling transformation) diagrama de transformación por enfriamiento
continuo
CPE (Chemical product engineering) ingeniería de productos químicos
CLTE (Coefficient of linear thermal expansion) coeficiente de expansión térmica lineal
CT Conductividad térmica de la red
CTE (The common table expression) coeficiente de expansión o dilatación térmica
DCV (Double cross verification) doble verificación cruzada
DTI (Drug–target interaction) interacción fármaco-objetivo
FDM (Molten deposit modeling) modelado por depósito fundido
FMI (Fluorescence microscopic imaging) imágenes microscópicas de fluorescencia
GBDT (Gradient-boosted decision trees) árbol de decisión con impulso de gradiente
GPU (Graphics processing unit) unidad de procesamiento gráfico
HAZ (Heat-affected zone) zona de calentamiento
HSI (Hyperspectral imaging applications) espectrometría de imagen
KNN (K nearest neighbors) k vecinos más próximos
LSTM (Long short-term memory networks) redes de memoria a largo plazo
MARS (Adaptive multivariate spline regression) regresión adaptativa multivariante spline
MCTS (Monte carlo tree search) búsqueda de árbol de monte carlo
MLOps (Machine learning operations) operaciones de aprendizaje automático
MLR (Multiple linear regression) regresión lineal múltiple
MLPNN (Multiple-layer perceptron neural network) red neuronal de percepción multicapa
MLP (Multilayer perceptron) percepción multicapa
MIC (Maximum information coefficient) coeficiente de información máximo
MID-FTIR (Infrared spectrometry) espectrometría infrarroja
NFPA (National fire protection association) asociación nacional de protección contra el
fuego
NLP (Natural language processing) procesamiento de lenguaje natural
NRTL (Non-random two-liquid model) modelo no aleatorio de dos líquidos
PaaS (Platform as a service) plataforma como servicio
PCR (Polymerase chain reaction) reacción en cadena de polimerasa
QML (Quantum machine learning) aprendizaje automático cuántico
QPL (The qualified products list) unidad de procesamiento cuántico

iv
QSAR/QSPR (Quantitative structure-activity/property relationships) relaciones cuantitativas
estructura-actividad/propiedad.
RBF (Radial basis function) funciones de base radial
RL (Reinforcement learning) aprendizaje por refuerzo
RMI (Raman microscopic imaging) imágenes microscópicas Raman
SaaS (Software as a service) software como servicio
SA (Superficial area) área superficial
SRU (Repeating structural units) unidades estructurales repetidas
SVR (Support vector regression) vectores de soporte
SVC (Support vector classifier) clasificador de vectores de soporte
VL Vapor-líquido
VLL Vapor-líquido-líquido
WS (Wind speed) velocidad media horaria del viento
XGBoost (Extreme gradient boosting) gradiente impulsor extremo

v
NOMENCLATURA
mg Miligramo, unidad de Masa
wt Peso, magnitud física

vi
CAPÍTULO 1. INTRODUCCIÓN
La IA se puede definir como la capacidad de las máquinas para usar algoritmos, aprender datos
brindados por bases de datos y utilizar lo aprendido en la toma de decisiones siendo así acciones
similares a las que tendría un humano, con la diferencia de que los dispositivos basados en IA
tienen la ventaja de analizar volúmenes grandes de información sin la necesidad de tomar un
descanso ya que su capacidad de análisis es mayor. Por otro lado, se reduce el sesgo de error que
puede causar el ser humano al analizar grandes volúmenes de datos. La intención de los
ordenadores o los programas informáticos puedan tanto aprender como tomar decisiones es
particularmente importante y algo que hoy en día se ha vuelto un tema de interés teniéndose un
crecimiento exponencial con el tiempo, es por esto qué, los sistemas de IA se pueden realizar ahora
muchas de las tareas que antes estaban reservadas sólo a los humanos (Rouhiainen, 2018).

La IA representa hoy en día un avance tecnológico que comprende desde actividades cotidianas que
realizan los seres humanos desde el uso de GPS en los teléfonos móviles hasta optimizar tareas en
amplias áreas como las industrias. Ante ello, el siguiente apartado establece la delimitación del tema
para desarrollar la investigación.

1.1. Planteamiento del problema


En el campo de la ingeniería química, el uso de técnicas de IA y ML está ganando cada vez más
importancia debido a su capacidad para optimizar los procesos de producción, mejorar la calidad de
los productos y reducir los costos de operación. Sin embargo, a pesar de las ventajas evidentes, la
aplicación de estas técnicas en la industria química aún presenta ciertos desafíos (García Peña,
2020). Uno de los principales desafíos es la falta de comprensión y confianza por parte de los
ingenieros químicos en cuanto a la implementación de estas técnicas en su trabajo diario. Además,
la complejidad y la falta de datos relevantes para entrenar los modelos de dicha rama también
pueden representar obstáculos significativos.

Otro desafío es la falta de estandarización en el desarrollo de los modelos de IA y ML. La selección


de algoritmos, la limpieza y preparación de datos, y la interpretación de los resultados pueden variar
significativamente entre diferentes proyectos, lo que dificulta la comparación y la reproducción de
los resultados. Por lo tanto, es importante investigar cómo se pueden aplicar de manera efectiva las
técnicas y los modelos en la ingeniería química abordando los desafíos mencionados anteriormente.

1
1.2. Objetivos
1.2.1. Objetivo general
Desarrollar una revisión bibliográfica sobre las aplicaciones de la IA en general, y el aprendizaje
automático en particular, en campos de la ingeniería química en niveles académicos, de
investigación e industriales.

1.2.2. Objetivos específicos


 Recopilar y analizar recursos bibliográficos donde se apliquen técnicas de IA y ML para fines
académicos, de investigación o industriales en ingeniería química.

 Recopilar series de datos experimentales de propiedades de sustancias o mezclas, equilibrio,


cinética, control automático y otras áreas, para alimentar modelos de ML.

 Desarrollar al menos un ejemplo de aplicación simple de ML como muestra de aplicaciones


potenciales para materias del área de ingeniería química en la Universidad.

1.3. Límites y alcances


 La recopilación de recursos bibliográficos se desarrollará solamente consultando bases de datos
y otros recursos electrónicos para los cuales la Biblioteca Florentino Idoate de la Universidad
Centroamericana José Simeón Cañas tenga acceso completo y sin restricciones.

 La revisión bibliográfica se centrará en usos de IA y ML en aplicaciones con relación a la


ingeniería química, en escalas de docencia, de investigación e industria.

 El (los) ejemplo(s) de aplicación del Capítulo IV se desarrollarán utilizando software de


licencia libre, particularmente el lenguaje de programación Python y librerías publicadas para
este lenguaje, como Scikit-learn o Pandas.

1
1.4. Antecedentes
El ML como rama de la IA, tiene como objetivo general, simular las capacidades del cerebro
humano y poder optimizarlas. Esto a partir de experiencias y datos previos que permiten crear
relaciones entre datos, elaborar diferentes predicciones e incluso entender el objetivo de un
procedimiento para poder optimizarlo. Desde la década de 1940-1950 se comienzan a determinar
dichos objetivos de simulación de la inteligencia humana y figuras como Alan Turing y John
McCarthy que fueron piezas fundamentales en el desarrollo de la IA aun siendo su tiempo de
investigación previo a dicha ciencia, estableciendo las bases para su desarrollo, gracias a que Turing
considerado el padre de la IA presenta mediante la computación y elaboración de algoritmos
proyectos que permitieron el avance en la informática de ese tiempo. En el parque de Bletchley
Turing lidero equipos encargados de descifrar mensajes ocultos por la maquina alemana Enigma,
mediante la elaboración de una computadora o mejor reconocida como una maquina
electromecánica llamada “Bombe” que permitió descifrar códigos mediante modelos de inferencia y
predicción. Esto es considerado uno de los principales hechos que marcan la IA, aunque para su
momento no había sido categorizada ni clasificada como una ciencia o estudio y el termino no había
sido identificado (elternativa, 2023).

El punto de partida para el término de IA se acuña en la conferencia en Dartmouth de 1956 sobre


los métodos de automatización de procedimientos, organizada por Marvin Minsky, John McCarthy
y Claude Shanon, tres de los principales investigadores y promotores de la optimización de
procedimientos mediante el uso de máquinas automatizadas. En dicha conferencia se presentaba el
punto de que los ordenadores serían capaces de hacer cualquier cosa que haga una persona, e
incluso de mejor manera. Marvin Minsky publicó en su artículo de 1957 en el Science Journal:
“Actualmente, las máquinas resuelven problemas de acuerdo con los principios que se establecen
previamente dentro de ellas”. Dentro de poco se podría tener la capacidad para ponerlas a trabajar
en problemas específicos para mejorar su capacidad de resolver problemas (McCarthy, 2014).

Dentro de los principales hitos que marcan la era del nacimiento de la IA se tienen: (McCarthy,
2014):

 Newell y Simón fueron los responsables del desarrollo del General problem solver
(Solucionador General de Problemas) en 1957, que se diseñó para imitar protocolos de
razonamiento humanos.

1
 Entre 1952 y 1962, Arthur Samuel desarrolló el primer programa para juegos de damas, que
logró obtener suficiente pericia como para desafiar al campeón mundial, sus programas con
aprendizaje de máquina fueron responsables del incremento en el rendimiento de los jugadores
de damas.

 En 1958, John McCarthy inventó el lenguaje de programación LISP, concebido para IA y con
un enfoque diferente al actual. Se trataba de un lenguaje para que los humanos pudieran
describir sus procedimientos a las máquinas.

En 1958 Rosenblatt introdujo el percepton para el reconocimiento de patrones en datos de


entrada, de cualquier tipo de característica o estructura que se repiten o puedan presentar
regularidades en los datos, siendo capaz de generalizarlos. Este es el primer programa donde se
incorpora lo que es el ML y procedimiento automatizado, gracias a que permiten realizar tareas
específicas.

Para el año 1986, James McClelland, David Rumelhart y el grupo de investigación PDP
(Procesamiento distribuido en paralelo) publicó una investigación que presentaba el uso de
modelos de redes neuronales para el aprendizaje automático en el libro: The PDP perspective
Parallel distributed processing, de la universidad de Cambridge, donde se presenta, cómo
dentro de cada modelo es necesario examinar muchas piezas de información y cómo están
relacionadas, aunque pueda que no haya relaciones identificadas explícitamente o sean
ambiguas, cada una tiene el potencial decisivo dentro del resultado de procesos.

Dando un salto al año 1997, se da el hito en el que Deep Blue, una computadora creada por
IBM a principio de los años 90´s, la cual era una herramienta con capacidad de competir en
ajedrez a nivel profesional, que se mantuvo con el objetivo de ir aprendiendo y mejorando sus
habilidades, hasta que pudo competir contra el campeón mundial de ajedrez Garry Kasparov, al
cual logró vencer gracias a la gran capacidad de retroalimentación de resultados y escenarios
que son almacenados en su memoria y pueden ser simulados instantáneamente, lo que le
permitió predecir el mejor curso de acción a partir de complejas combinaciones de
movimientos. Este ejemplo también se enfoca en cómo la computadora responde a datos que
están siendo constantemente incorporados y la capacidad de leerlos de forma directa, trabajando
en la capacidad de análisis de datos y mejora continua (ScienceDirect, 2023).

2
Aterrizando en los avances que ha representado la IA y el ML en la química e ingeniería, su
aplicabilidad y utilidad solo han ido aumentando. Por ejemplo, en la química computacional se tiene
que los algoritmos han sido utilizados por décadas en el campo de la química analítica, para la
calibración y el análisis multivariables. como la quimiometría, y otras técnicas de relaciones de
actividad estructural cuantitativa, utilizado en las prácticas estándar de farmacología e investigación
de componentes, con el único problema que estos métodos no han tenido muchos avances y siguen
siendo utilizados a lo largo del tiempo, esto debido a su habilidad de comprender los patrones de
bases de datos y poder encontrar correlaciones y la capacidad de transferir dicha información a otras
bases (Campbell & Hoane, 2002).

Otro ejemplo, de las aplicaciones que se han obtenido gracias a la IA ha sido la capacidad para
poder desarrollar descriptores transferibles entre distintos sistemas y propiedades químicas,
presentando resultados instrumentales que a menudo requieren transformaciones matemáticas para
hacerlos accesibles a los experimentadores humanos; los espectros IR complejos, por ejemplo, a
menudo contienen información extraña altamente correlacionada que puede reducirse para su uso en
curvas de calibración. Tradicionalmente, se utilizaban modelos lineales sencillos para extraer
información de distintos tipos de espectros, pero cada vez más se están adaptando métodos de ML
más avanzados a las herramientas del químico analítico para predecir mejor los resultados
esperados, aumentar la sensibilidad y descubrir nuevas perspectivas (Campbell & Hoane, 2002).

Gracias a ello en vez de cuantificar los sistemas químicos mediante métricas tradicionales como
átomos y enlaces, los descriptores de nueva generación adoptan una forma más versátil, mediante la
aproximación de los datos a partir de análisis previos como lo es el descriptor de la matriz de
Coulomb usado para representar especies químicas que requieren la misma información de un
sistema químico que la matriz de Hamilton: coordenadas atómicas y la carga nuclear de los átomos,
utilizado en la energía de atomización, polarizabilidad, energías orbitales de frontera molecular,
potencial de ionización, entre otras ( Kunz & Wilson , 2022).

Además, se tienen otros descriptores que ayudan a optimizar los procesos químicos como lo es el
Faber–Christensen–Huang–Lilienfeld (FCHL). Este descriptor es capaz de predecir con exactitud
una gran variedad de propiedades electrónicas y es mucho más robusto a la hora de predecir otras
regiones del espacio químico que cualquiera de sus predecesores (Kunz & Wilson, 2022).

3
Pero el ML y la IA no solo se quedan en la optimización para la obtención de un resultado o la
predicción de valores o coeficientes, como se ve reflejado en aplicaciones de la industria de
procesos químicos o físicos. También se tienen aplicaciones en el área de mantenimiento y control
de variables de producción, gracias a la capacidad de análisis de grandes volúmenes de datos que
además están continuamente actualizándose; y se tiene que encontrar relaciones entre sí (Nithin &
Hobbs, 2022). Esto para poder comprender el estado de un equipo y facilitar su gestión. En la
literatura se utilizan métodos como árboles de decisión de bosque aleatorio, redes neuronales
artificiales y máquinas de soporte vectorial para modelar sistemas de detección de fallos y
predicción de fiabilidad, considerando tanto datos de sensores como datos ingresados de forma
manual para equipos industriales como bombas, rodamientos, cajas de cambios, compresores de
aire, turbinas de gas, etc. En su estudio, Nithin & Hobbs, utilizan una SVM que encuentra híper
planos entre las bases de datos para auxiliar tomas de decisiones, para poder realizar acciones
correctas que buscan minimizar el coste de mantenimiento y de los errores (Nithin & Hobbs, 2022).

1
Para enfoques más recientes se tiene que la IA y métodos de ML han sido utilizados ante diferentes
situaciones, como lo fue la pandemia de COVID 19, siendo utilizados para poder hacer la diagnosis
de los escaneos CT, imágenes de rayos X y estudios en la creación de medicinas y vacunas contra el
COVID-19. Además, se utilizan métodos de IA en seguimiento de personal mediante el
reconocimiento facial, desinfección de áreas mediante el uso de herramientas computacionales
como lo son pantallas interactivas y drones, que permiten la automatización del mantenimiento de
áreas que fueran expuestas a COVID-19. Además, fue un auge para la incorporación de los
servicios a domicilio por robots y la creación de plataformas virtuales que pudieron apoyar en la
entrega de comida y medicinas para la población en tiempo de pandemia, que disminuyeron la
interacción entre personas, evitando así el contagio masivo y en cadena. (Chadaga & Prabhu,
2021).

En América Latina también existen estudios asociados a la IA y ML. Por ejemplo, Corvalán dentro
de uno de sus estudios presenta situaciones de áreas de trabajo y cómo se ven afectadas las
actividades diarias de las personas, debido a que las máquinas y algoritmos son cada vez más
capaces de igualar e incluso superar ampliamente múltiples y específicas habilidades que estaban
reservadas exclusivamente al cerebro, estas se ven representadas en las cifras de desempleo, en
donde América latina presenta un leve y lento aumento en la tasa de desempleo (Corvalán, 2018).

En el caso de El Salvador, Alfaro Parada realizó el estudio “Utilización de metodologías de IA y sus


aplicaciones en El Salvador” presentando el nivel de confianza que se le tiene a estudios de la IA y
a las aplicaciones de aprendizaje automático. Alfaro presenta como estos métodos puedan
presentarse como alternativas objetivas para la solución de problemas sociales, en contrario al
estudio que presenta Corvalán lejos de ser una amenaza ante las oportunidades de las personas,
prometen resolver en forma efectiva problemas de fraude y corrupción, debido a la manipulación de
datos por negligencias generadas por los seres humanos, demostrando cómo el gobierno podría
apostar a las tecnologías de la IA para automatizar procedimientos y tener control sobre todas las
variables, contando con registros y sistemas de alerta automatizadas que puedan generar reportes
inmediatos y plantes de solución ante problemas(Alfaro Parada, 2011).

CAPÍTULO 2. MARCO TEÓRICO


En este apartado se ha realizado una aproximación al contexto histórico necesario para detallar en
qué consiste la IA y sus usos, enfocándose en un acercamiento a lo que representa en la tecnología
que día a día como sociedad se utiliza. Dentro del alcance del capítulo se tienen tres grandes

1
apartados para describir la IA. El primer apartado engloba la evolución socio-histórica, enfocado en
los principales usos y aplicaciones sociales. El segundo presenta las generalidades teóricas sobre la
IA y, por último, en el tercer apartado se presentan aplicaciones dentro de la ingeniería química y
temas asociados, presentándose a detalle conceptos, tipos y ramas en los que se divide el ML como
subcategoría de la IA.

2.1. Historia de la IA
A través de los años, el ser humano se ha preocupado por su capacidad de razonamiento y su
habilidad para analizar, planear y dar una solución a un problema. Desde ese entonces en paralelo
también se ha buscado la manera de crear sistemas para reproducir habilidades mentales que solo
poseen los humanos, y que de tal manera se pueda realizar de una manera más simple algunos
procesos. A lo largo de la historia, la IA se considera como una de las ramas de las ciencias de la
computación que se ocupa de construir sistemas que permiten exhibir un comportamiento cada vez
más inteligente (Alvarado M., 2015). A continuación, se detalla el origen y evolución de la IA.

2.1.1. Origen de la IA
Los orígenes de la IA están íntimamente vinculados a los de la computación. Grandes nombres de
las ciencias computacionales forjaron las condiciones para el surgimiento de esta rama. Durante las
décadas 30 y 40 del siglo XX, se publican los primeros trabajos que abordan de alguna manera la
IA (da Silva, 2021). El artículo “Números Calculables” publicado en 1936 por Alan Turing, donde
se establecen las bases teóricas de las ciencias de la computación. En este artículo, Turing introdujo
el concepto de “Máquina de Turing”. Además de formalizar la definición de algoritmo, las ideas
expuestas en la publicación son consideradas como precursoras de las computadoras digitales. Una
conclusión trascendental a la que arribó Turing con ayuda de su máquina es la de que existen
problemas que ninguna computadora puede resolver. Por tal demostración es considerado como el
padre de la teoría de la computabilidad.

Otro logro extraordinario, en los orígenes de la IA es la construcción del primer computador


electromecánico en el año 1940. En 1944, el ingeniero alemán Konrad Zuse crea la Z3, la primera
computadora electrónica digital totalmente funcional. Zuse es también el creador del primer
lenguaje de programación de alto nivel. (da Silva, 2021).

2.1.2. Evolución de la IA
La evolución de la IA se da en tres etapas, presentadas a continuación:

2
a) Etapa primaria (1956-1970)
En la etapa primaria los investigadores que trabajaban en la línea de investigación cognitiva
produjeron trabajos dirigidos al desarrollo de algoritmos y de estrategias de búsqueda para la
solución de problemas. En su afán de alcanzar un modelo de representación del conocimiento
humano, crearon la técnica más importante de representación: las reglas de producción. Por otro
lado, los investigadores que formaban parte de la tendencia conexionista también produjeron

trabajos relevantes en esta primera etapa. Los investigadores de IA de abajo hacia arriba o
conexionismo, adoptan un enfoque opuesto y simulan redes de neuronas artificiales que son
similares a las neuronas del cerebro humano (Álvarez Corredera, 2023). Un ejemplo es el
perceptron, fue desarrollado por Frank Rosenblatt en 1959. Es una unidad neuronal artificial que se
puede entrenar mediante reglas de aprendizaje supervisado, no supervisado y por reforzamiento
(Casella, 2017).

b) Etapa de prototipo (1971-1981)


En la etapa de prototipo, se realiza un reconocimiento justo a los logros alcanzados en la primera
etapa. Además, se desarrolla un análisis crítico dirigido a comprender las causas de los fracasos
obtenidos en el período anterior. Al profundizar en el análisis se descubre que en muchas de las
técnicas propuestas por los iniciadores de la IA faltaba la consideración de un elemento muy
importante: el conocimiento heurístico. Este descubrimiento condujo a la inclusión de la
experiencia como variable en los sistemas de IA. Es entonces cuando en las universidades
comienzan a desarrollarse los primeros prototipos exitosos de sistemas. Aunque no es hasta 1977,
que surge el término sistema experto, el primero de ellos se da a conocer en 1974. Se trata de
Mycin, un sistema de diagnóstico de enfermedades infecciosas, producido por la Universidad de
Stanford (da Silva, 2021).

En 1975 ve la luz la versión inicial de un lenguaje de programación lógica: prolog. Este período se
destaca también por el desarrollo en diversas áreas de importantes prototipos funcionales. Puff fue
un prototipo diseñado para auxiliar en el diagnóstico de enfermedades pulmonares. Prospector fue
creado para contribuir en la prospección geológica, mientras Dendral fue desarrollado para el
análisis de química orgánica. Estos y otros prototipos tuvieron éxito en los campos para los cuales
fueron diseñados (da Silva, 2021).

3
c) Etapa de difusión industrial (1981-Actualidad)
La etapa que transcurre entre 1981 y la actualidad ha sido denominada la etapa de difusión
industrial. Esto se debe al hecho de que los prototipos salen de los laboratorios y universidades para
entrar en el mundo de la producción y el mercado. En el contexto de esta especie de fiebre de
difusión de la IA, no se ha tenido el mismo entusiasmo para el financiamiento de la investigación
básica (Alvarado M., 2015).

En esta etapa se han desarrollado numerosos sistemas expertos en el área de la medicina como
DXplain, Cadet y PXDES. Este último permite determinar fácilmente el tipo y el grado de cáncer de
pulmón a través de un análisis de datos. Con el inicio de la tercera etapa, en la década de los 80 del
siglo pasado surge también el concepto de base de datos inteligentes. Una base de datos inteligente
es un sistema que administra la información de una forma que parece natural ante los ojos de los
clientes (Alvarado M., 2015). La robótica, las redes neuronales, el reconocimiento de patrones, el
procesamiento del lenguaje natural y el aprendizaje automático son dominios que también han
recibido una atención especial en la tercera etapa de la IA (Casella, 2017).

2.2. La IA hoy en día


Aún hoy en día se sigue inmerso en esta edad de oro de la IA, que cada día conquista nuevos
sectores y usos que permiten mejorar la eficiencia, automatizar procesos complejos y ofrecer
soluciones ágiles a conflictos y problemáticas en los que el propio ser humano se ve superado o
requeriría de mucho más tiempo (Martínez, 2023).

Así, IA ya no es una simple simulación de tareas de humanos en manos de computadoras, sino que
es toda una metodología y herramienta eficaz para usos como la segmentación de clientes, previsión
de ventas, optimización de recursos, tratamiento de datos masivos y un largo etcétera que se
construye a cada momento. De hecho, el uso de la IA en las empresas se está imponiendo a otras
metodologías y supone toda una herramienta competitiva cuya utilización aporta grandes ventajas
tanto económicas como estructurales, aplicándose en sectores como la banca y seguros, turismo,
energías, educación, transporte y logística, telecomunicaciones, bienes raíces, industria, etc
(Martínez, 2023).

4
2.2.1. Año clave para la IA 2025
La IA avanza rápidamente, habiendo evolucionado desde su concepción hasta el siglo XXI. Se
prevé que el año 2025 sea un punto de inflexión crucial en el cual la IA se integrará en sistemas
cotidianos como computadoras y teléfonos móviles, combinándose con otras tecnologías como la
robótica y la realidad aumentada para brindar experiencias más completas y realistas. Se estima que
el uso de la inteligencia artificial experimentará un gran avance. Se espera que evolucione hacia la
creación de conserjes robotizados con los que se pueda interactuar directamente, por mencionar solo
un ejemplo de hacia dónde se dirige el desarrollo de la IA (Casella, 2017).

2.3. Clasificación de la IA
La escuela clásica dentro de la IA utiliza representaciones simbólicas basadas en un número finito
de primitivas y de reglas para la manipulación de símbolos (por ejemplo, redes semánticas, lógica
de predicados, etc siendo parte central de dichos sistemas. Otro tipo de representación es el llamado
sub-simbólico, el cual utiliza representaciones numéricas (o sub-simbólico) del conocimiento
(Ponce Gallegos & Torres Soto, 2014).

El enfoque sub-simbólico de la IA se caracteriza por crear sistemas con capacidad de aprendizaje.


Este se puede obtener a nivel de individuo imitando el cerebro (redes neuronales), a nivel de
especie, imitando la evolución. Hasta hace poco era común hablar de algoritmos genéticos (AG) en
general (Ponce Gallegos & Torres Soto, 2014).

2.4. Modelos de la IA
Existe una clasificación de los modelos de IA que se basa en el objetivo y la forma en que trabaja el
sistema, esta clasificación de manera inicial se veía como clases independientes, sin embargo, en la
actualidad los sistemas mezclan características de ellas (Ponce Gallegos & Torres Soto, 2014):

2.4.1. Sistemas que piensan como humanos


El modelo base es el funcionamiento de la mente humana; se trata de establecer una teoría sobre el
funcionamiento de la mente (experimentación psicológica).

2.4.2. Sistemas que actúan como humanos


El modelo para seguir es el hombre; el objetivo es construir un sistema que pase por humano.

5
2.4.3. Sistemas que piensan racionalmente
Las leyes del pensamiento racional se fundamentan en la lógica (silogismos de Aristóteles).

2.4.4. Sistemas que actúan racionalmente


El paradigma es el agente racional que se aplica como por ejemplo los sistemas robóticos; un agente
percibe y actúa, siempre teniendo en cuenta el entorno en el que se encuentra.

2.5. Tecnologías y beneficios basadas en la IA


Las tecnologías basadas en la IA ya están siendo utilizadas para ayudar a los humanos a
beneficiarse de mejoras significativas y disfrutar de una mayor eficiencia en casi todos los ámbitos
de la vida. Pero el gran crecimiento de la IA también obliga a estar atentos para prevenir y analizar
las posibles desventajas directas o indirectas que pueda generar la proliferación de la IA. Estas son
sólo algunas de las aplicaciones técnicas de la IA que están creciendo rápidamente en la actualidad
(Rouhiainen, 2018):

 Reconocimiento de imágenes estáticas, clasificación y etiquetado: Estas herramientas son


útiles para una amplia gama de industrias.

 Mejoras del desempeño de la estrategia algorítmica comercial: Ya ha sido implementada de


diversas maneras en el sector financiero.

 Procesamiento eficiente y escalable de datos de pacientes: Esto ayudará a que la atención


médica sea más efectiva y eficiente.

 Mantenimiento predictivo: El mantenimiento preventivo se cataloga como una revisión de los


aparatos para su buen funcionamiento, y evita los fallos del equipo previniendo las incidencias
antes de que ocurran. Otra herramienta ampliamente aplicable en diferentes sectores
industriales.

 Detección y clasificación de objetos: Puede verse en la industria de vehículos autónomos,


aunque también tiene potencial para muchos otros campos.

 Distribución de contenido en las redes sociales: Se trata principalmente de una herramienta


de marketing utilizada en las redes sociales, pero también puede usarse para crear conciencia

6
entre las organizaciones sin ánimo de lucro o para difundir información rápidamente como
servicio público.

 Protección contra amenazas de seguridad cibernética: Es una herramienta importante para


los bancos y los sistemas que envían y reciben pagos en línea.

2.6. Ramas de la IA
2.6.1. Aprendizaje automático: Machine Learning (ML)
ML es la herramienta principal de la IA dónde los ordenadores o las máquinas tienen la capacidad
de aprender sin ser programados para ese fin, un ejemplo de enfoque común que puede tener esta
rama es el generar sugerencias o predicciones a situaciones particulares. ML utiliza algoritmos para
aprender de los patrones de datos. Por ejemplo, cuando se presentan ciertos correos con
herramientas maliciosas que puedan afectar nuestra computadora o correos que provienen de
contactos fuera de la lista de contactos confiables los filtros de spam que tiene incorporados el
correo electrónico utilizan este tipo de aprendizaje con el fin garantizar una mayor seguridad hacia
los usuarios separando dichos correos de los que si son de utilidad y respaldo seguro. Éste es un
sencillo ejemplo de cómo los algoritmos pueden usarse para aprender patrones y utilizar el
conocimiento adquirido para tomar decisiones (Rouhiainen, 2018).

A partir de ML, se obtienen sub-ramas de las cuales se pueden obtener diferentes resultados del
procesamiento de datos, dependiendo de la información que se les brindan y las funciones que estos
mediante sus especificaciones permiten hacer. En los siguientes apartados se definen estos tipos de
aprendizajes.

2.6.2. Redes neuronales: Neural Networks


Las redes neuronales artificiales nacen del deseo de enfrentar los grandes problemas de formular un
sistema capaz de funcionar igual o mejor que una red neuronal biológica, permitiendo una mayor
síntesis de grandes cantidades de datos. Las redes neuronales artificiales se clasifican de la siguiente
manera:

a) Aprendizaje supervisado
El concepto de aprendizaje supervisado se debe a que parte de estos modelos requieren supervisión
humana. La gran mayoría de los datos disponibles son datos brutos sin etiquetar. Por lo general, se
requiere la interacción humana para etiquetar con precisión esos datos. Naturalmente, puede ser un

7
proceso intensivo en recursos, ya que se necesitan grandes conjuntos de datos etiquetados. Algunos
ejemplos basados en este aprendizaje parten de clasificar diferentes tipos de archivos como
imágenes, documentos o palabras escritas, también pronosticar tendencias y resultados futuros a
través de patrones en los datos. El aprendizaje supervisado se puede subdividir en dos tipos:
clasificación y regresión.

En la clasificación se tiene como objetivo principal la predicción de etiquetas de clase categóricas


de nuevos registros, a partir de observaciones pasadas. Existen 2 tipos de clasificaciones: binarias y
multiclase dependiendo de las etiquetas que permitan identificar patrones y hacer predicciones. En
cambio, en regresión, se utiliza un proceso estadístico predictivo en el cual se intenta predecir un
valor de forma continua por medio de la relación de variables independientes o dependientes. La
metodología parte de utilizar ecuaciones en la cuales se sustituyen los valores de las variables y dan
como resultado un valor para el cual se desee predecir ([Link], 2021).

Los algoritmos que se encuentran dentro de la metodología aprendizaje supervisado son las
siguientes:

 Regresión lineal: consiste en graficar una ecuación y que genere un gráfico lineal usando el
método matemático de mínimos cuadrados ([Link], 2021).

 Regresión logística: este algoritmo se selecciona cuando la variable dependiente es categórica,


lo que implica que lo resultado a obtener serán del tipo binario como, por ejemplo: verdadero,
falso, sí y no. Este algoritmo se emplea en problemas como la identificación de spam (IBM,
2018).

 Vectores de soporte: se utiliza tanto para problemas de clasificación como de regresión, plantea
una curva o hiperplano que modela una tendencia de datos de entrenamiento y de esta poder
predecir cualquier dato en el futuro (González, 2023).

 Árboles de decisión: se aplica tanto en regresión como en clasificación, es un algoritmo de


aprendizaje supervisado que predice valores de respuesta mediante el aprendizaje de reglas de
decisiones derivadas de características. Este algoritmo es muy bueno en el manejo de datos
tabulares con características numéricas o características categóricas con menos de cientos de
categorías (González, 2019).

8
 Bosques aleatorios: es un algoritmo flexible que se emplea tanto para clasificación como para
regresión, hace referencia a una colección de árboles de decisión no correlacionados, que luego
se fusionan para reducir la varianza y de esta manera formular predicciones de datos más
precisos (IBM, 2018).

 K vecinos más cercanos: este algoritmo consiste en entrelazar bases de datos extensas por
medio de puntos de datos que corresponden a una clasificación específica. A partir de un punto
se puede predecir tomando en cuenta los “K” puntos más cercanos para determinar la
clasificación cercana (Aghabozorgi, 2018). En resumen, el método toma una serie de datos
etiquetados con categorías, que son variables discretas que permiten clasificar al dato. Estos
datos tienen además una serie de valores característicos con valores discretos o continuos. Se
busca comparar cada punto con los demás a fin de encontrar puntos con similitudes en los
valores característicos. Esta agrupación debería conducir a grupos de datos que pertenecen a la
misma categoría. El valor de K es el número de puntos con los cuales cada dato se compara.

b) Aprendizaje no supervisado
Es el entrenamiento de modelos de datos sin procesar y sin etiquetar. Como el nombre indica, el
aprendizaje automático no supervisado no necesita tanta intervención humana comparado con el
aprendizaje supervisado. Una persona tiene que establecer los parámetros del modelo, como la
cantidad de puntos deseados, pero el modelo es capaz de procesar grandes conjuntos de datos de
manera efectiva y sin supervisión humana. Los ejemplos basados en este aprendizaje se presentan
de las siguientes formas (Universidad Europea, 2022):

 Grupos de datos con similitudes entre características o datos de segmento.


 Entender la relación entre diferentes puntos de datos, como recomendaciones de música
automatizadas.
 Realizar análisis de datos iniciales.

2.6.3. Aprendizaje profundo: Deep Learning


El concepto de aprendizaje profundo establece la idea de imitar el cerebro a partir del uso de
hardware y software, para crear una IA pura, utilizando una capacidad de abstracción jerárquica, es
decir, una representación de los datos de entrada en varios “niveles”, en el caso de las redes
neuronales artificiales, en varias capas, para seleccionar características que son útiles para el

9
aprendizaje; de esta manera, una característica de un nivel de complejidad más alto será aprendido
de una de un nivel de complejidad más bajo (Pierre, 2015).

2.7. Impactos de la IA
2.7.1. Impacto de la IA en el sector económico
El impacto de la IA se manifiesta de muchas formas. Uno de ellos es su capacidad para transformar
y promover la economía. De hecho, algunas personas piensan que la humanidad está
experimentando una nueva revolución industrial. Los cambios actuales son producto de la creación
y aplicación de algoritmos, los algoritmos son una serie de operaciones matemáticas capaces de
ejecutar comandos, desarrollar y realizar diferentes actividades (Cruz, 2021).

El sector financiero y el sector minorista son ejemplos de instituciones que maximizan el potencial
de la IA. Los bancos y las empresas financieras utilizan esta tecnología en la investigación y el
análisis de fraudes, la evaluación del riesgo crediticio, los sistemas de asesoramiento,
recomendación y la prevención de amenazas. Las empresas minoristas lo utilizan principalmente en
las áreas de distribución y logística, reabastecimiento e inventario o planificación inteligente de la
mano de obra (Cruz, 2021).

2.7.2. Impacto de la IA en el sector social


La tecnología está cambiando el mundo. Los productos o servicios que se han desarrollado con
ayuda de la tecnología se han permitido relacionarnos con nuestro entorno de distintas maneras:
desde tener al alcance desde las manos la posibilidad de automatizar ciertas tareas en el ámbito
laboral hasta contar con asistencia para realizar actividades cotidianas. Todo a un clic de distancia,
facilitando no solo procedimientos, sino que los automatiza. Sin embargo, más allá del cómo, lo
realmente importante es el propósito (Lacoste, 2020). Teniéndose diferentes métodos, como el de
aplicaciones en las áreas del sector social, que permiten la transparencia en procesos de
documentación oficial y de análisis asociados a rendiciones de cuenta y controles de costos (Alfaro
Parada, 2011).

2.7.3. Impacto de la IA en el sector de la salud


Se puede decir que la IA se aplica actualmente en todos los ámbitos de la salud. Está presente en el
descubrimiento de nuevos fármacos, así como en la interpretación de imágenes radiológicas, y hasta
en el análisis del genoma de un paciente, ayudando a entender la progresión de una enfermedad
(Diaz, 2020).

10
También optimiza los recursos sanitarios disponibles, automatizando tareas repetitivas, y acelerando
la interpretación de los datos. De manera, que la proliferación de registros de salud electrónicos,
intercambios de información sanitaria, y la información procedente de los dispositivos portátiles y
sensores, generan cantidades de datos que, sin ayuda de la IA, serían imposibles de analizar y
procesar. Estas son solo algunas de las múltiples funciones que desempeña la IA en salud, pero la
lista sería interminable (Diaz, 2020).

2.7.4. Impactos de la IA en el sector ambiental


La IA está presente en un amplio abanico de investigaciones que se están realizando en la
actualidad para la preservación del medio ambiente y de la industria forestal. La IA también se
puede utilizar para mejorar de forma notable los distintos pronósticos meteorológicos a nivel
mundial. Esta tecnología permite analizar datos en tiempo real y con un margen de error mínimo
acerca de catástrofes meteorológicas. Así, haciendo uso de diversos modelos matemáticos, cabe la
posibilidad de ofrecer distintas soluciones para prevenir este tipo de desastres, creando alertas
tempranas y coordinando de forma adecuada la gestión de las emergencias (García, 2019).

La IA también tiene un papel clave para preservar el medio ambiente y luchar contra los incendios.
Por ejemplo, la multinacional tecnológica IBM ha aplicado la IA para desarrollar la herramienta
“Bee2FireDetection”, la cual es capaz de calcular cuáles son las probabilidades de que se dé un
incendio. Es por tanto de gran ayuda para combatirlo de un modo más ágil y eficaz. Esta
herramienta está siempre en funcionamiento, las 24 horas del día, los 365 días del año. Además, su
radio de acción es muy amplio, permitiendo detectar incendios forestales que se encuentran a 15
kilómetros de distancia. Para ello hace uso de una serie de algoritmos, además de recopilar distintos
datos ambientales del terreno y meteorológicos. Así, “Bee2FireDetection” realiza un pronóstico
muy preciso, con un margen de error mínimo (García, 2019).

2.8. Aplicaciones generales de la IA y ML


Dentro de las principales aplicaciones que se tiene de la IA en ramas de la ingeniería se destacan las
herramientas de ML para la optimización de procesos, mediante la predicción y análisis de variables
inmersas en dichos procesos. A continuación, se describen algunas:

11
2.8.1. Aplicaciones en el campo de la ingeniería química
En la ingeniería química la IA ha invadido los procesos químicos, en aplicaciones de sistemas
expertos, redes neuronales, lógica difusa y algoritmos genéticos. Su principal enfoque son las
simulaciones dinámicas para la representación de distintos modelos enfocados en la optimización y
diseño de los procesos. Los sistemas basados en conocimientos se crean usando conocimientos de
expertos humanos, así como de las ciencias básicas y la ingeniería y entra el ámbito de aprendizaje
automático gracias a que los conocimientos se pueden mejorar continuamente con la entrada
continua de información y tasas de cambio (Tapias García, 2019).

Dentro de las aplicaciones se tiene el análisis de alarma y manejo de situaciones anormales de


operación en planta. Un operario puede tomar decisiones cruciales rápidamente si está auxiliado por
un sistema experto que le anticipa al operador condiciones anormales mucho antes de que suene una
alarma. El sistema puede proveer información de soporte para la decisión, tales como posibles
causas del problema y opciones para su decisión. Un sistema de éstos puede usarse para hacer
control proactivo de un proceso, si está diseñado para recoger datos y calcular tendencias
estadísticas, suministrar una interpretación y alertar sobre tendencias estadísticas de variables claves
del proceso antes de que ocurra una perturbación en el sistema (Tapias García, 2019).

Hoy en día el uso del ML destaca gracias a la capacidad de predecir propiedades de compuestos
químicos. En el campo de química y farmacia se utiliza para diseñar nuevos fármacos ya que se
necesita saber si una sustancia es fácil o difícil de sintetizar, o si esta se puede disolver en agua o
incluso si esta puede llegar a generar efectos adversos sobre el ser humano; de esta manera la
proyección de las propiedades sería de gran utilidad para evitar ensayos que por su parte son caros y
que tomarían más tiempo. Por ejemplo, la predicción del plegamiento de las proteínas a partir de la
secuencia de aminoácidos ha sido un problema en la bioquímica vigente durante varias décadas y
no cabe duda de que el ML podría brindar un gran apoyo a esta situación (Farrán Morales & León
Cabanillas, 2019).

La increíble velocidad y capacidad de procesamiento de las computadoras, permite la comprensión


y manipulación de sistemas multivariables altamente complejos. Además de brindar un alcance
inimaginable como la simulación molecular. Por ejemplo, Tapias García, 2019, realiza una
simulación de una mezcla de corrientes y un intercambiador de calor para el control de temperatura
y presión para determinar las condiciones de los flujos en el intercambiador. Esto es un ejemplo de
simulación a partir de la entrada de datos y el registro previo, donde se busca la adaptación de los

12
nuevos avances de tecnologías dentro de la IAy las redes neuronales, para mejorar precisión e
identificar errores cometidos en diferentes pruebas como la determinación de fracción de vapor
dentro del sistema de flujos con controles de variables de temperatura y presión (Tapias García,
2019).

Para ello el ML se une con la química computacional, y su finalidad es aumentar la precisión


reduciendo el costo computacional y la disminución de errores y mejorando el tiempo de toma de
decisión mientras se disminuye la incertidumbre en los resultados y el tiempo para analizar los
datos.

Dentro del ML se presenta la oportunidad para hacer aproximaciones que no introduzcan errores a
los resultados, mediante el uso de algoritmos que permitan realizar pruebas de análisis de datos.
Por ejemplo, Farrán et al, 2019, desarrollan algoritmos para evaluar la energía y propiedades de una
molécula a partir de la geometría sin utilizar ecuaciones, ya que se analiza y aprende de los
resultados de dichas ecuaciones contenidos en bases de datos (Farrán Morales & León Cabanillas,
2019).

Por otro lado, las simulaciones de dinámica molecular se utilizan para simular la evolución
temporal de sistemas moleculares y éstas se basan en el uso de modelos formados por parámetros
empíricos para calcular la energía, siendo por momentos difícil escoger el conjunto de parámetros
empíricos adecuados para cada sistema en particular; es por esto que en la actualidad se desarrollan
herramientas no solo capaces de elegir el modelo óptimo sino que también desarrollen parámetros
y modelos que sean mejores que los existentes (Farrán Morales & León Cabanillas, 2019).

Para llevar a cabo este método que busca mejorar los modelos existentes y no solo la creación de
nuevos modelos, se deben tener ciertas consideraciones en mente; primero debe tenerse en cuenta
que para la eficacia del método se necesita una gran disponibilidad de datos y en el caso del área de
química se pone en desventaja ya que a veces se cuenta con una cantidad mínima de datos en ciertos
temas. Por otro lado, en su mayoría se establecen relaciones entre parámetros de forma
fenomenológica sin incorporar ningún fundamento físico y este comportamiento como caja negra
permite establecer la duda de hasta qué punto se puede decir que los resultados de los algoritmos
capturan la relación causa y efecto concreto. Es decir, aún no queda claro si los algoritmos son
capaces de entender una física real (Farrán Morales & León Cabanillas, 2019).

13
2.8.2. Aplicación en la investigación
La IA vendría a ser parte de cada uno de los aspectos más importantes y funcionales de la red
(internet). En la educación, como eje central, el objetivo a alcanzar por medio de la IA con apoyo de
los métodos previos del traslado de información ya que siempre se está en búsqueda de implementar
programas que permitan entornos de aprendizaje adaptativo para los estudiantes, docentes e
investigadores que construyan un punto de encuentro dentro de las partes involucradas gracias a la
IA, obteniendo apoyo de las predicciones y análisis de estrategias para poder impartir
conocimientos de manera eficaz y puntual, basándose en un análisis predictivo y evolutivo a partir
de datos que van involucrándose constantemente y que puedan ser utilizados de forma asertiva.
(García Peña, 2020).

El desarrollo tecnológico busca que se continúe la formación y la investigación de datos a partir de


diferentes herramientas como lo son: Big Data, como conjunto de datos o combinaciones de
conjuntos de datos cuyo tamaño o volumen, complejidad y/o variabilidad y velocidad de
crecimiento dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y
herramientas convencionales, tales como bases de datos relacionales y estadísticas convencionales o
paquetes de visualización, dentro del tiempo necesario para que sean útiles (García Peña, 2020).

El ML como subcampo de las ciencias de la computación y una rama de la IA, busca algoritmos y
heurísticas para convertir muestras de datos en programas de computadora, sin tener que insertar
todos los datos. En específico busca que a partir de la información previa en la educación e
investigación se logre acelerar el proceso de realización y desarrollo de los objetivos globales de
mejora, mediante la reducción de las dificultades de acceso al aprendizaje, la automatización de los
procesos de gestión y la optimización de los métodos que permiten mejorar los resultados en el
aprendizaje (García Peña, 2020).

2.8.3. Aplicaciones en el campo industrial


La industria tiene como objetivo principal brindar productos o servicios de alta calidad por un costo
bajo, los fabricantes en la actualidad están alcanzando estos objetivos con éxito empleando fábricas
inteligentes en las cuales se emplean tecnologías como la IA y en particular ML. Unido con la
facilidad de obtención y almacenamiento de datos estos métodos tienen un impacto directo en la
mejora de la eficiencia de los sistemas productivos, la calidad de los productos e incluso en la
seguridad de las personas. Unas de las herramientas industrializadas son Big data y el Cloud
Computing siendo estas tecnologías potentes y necesarias para la toma y almacenamiento de datos

14
además su uso se extiende a cualquier situación o proceso donde se desean identificar tendencias,
realizar predicciones, detectar anomalías, etc. (Maisueche Cuadrado, 2019).

Entre los beneficios directos de la aplicación de ML en las fábricas se encuentra la reducción de


costes mediante mantenimiento predictivo. De esta manera, disminuye el nivel del inventario y la
cantidad de chatarra gracias al mejor cuidado de las máquinas. ML facilita también conseguir
optimizar los flujos de producción y de transporte, así como focalizar la atención en el cliente para
responder rápido ante los cambios en el mercado (Maisueche Cuadrado, 2019).

La complejidad de los sistemas productivos y la demanda de productos personalizados, hacen


necesaria la introducción de soluciones flexibles. El término Intelligent Manufacturing Systems
(IMS, Sistemas Inteligentes de Producción) hace referencia a la nueva generación de sistemas
productivos que utilizan los resultados de las investigaciones en IA para resolver los problemas
ligados a la falta de información. De hecho, la relación entre inteligencia y aprendizaje es clara,
puesto que las tecnologías deseadas en la industria son aquellas que no solo generan y almacenan
información, sino que, además, la convierten en conocimiento para apoyar y facilitar las tareas de
los humanos (Maisueche Cuadrado, 2019).

La visión artificial es una disciplina científica muy utilizada en la industria, ya que permite a los
robots realizar tareas como el control de calidad y la inspección y reconocimiento de objetos. Los
sistemas de visión también sirven para determinar la posición y la orientación de los objetos de
forma que un robot pueda manipularlos (Maisueche Cuadrado, 2019).

La empresa ZenRobotics utiliza un robot que combina visión artificial y ML para clasificar cuatro
mil elementos reciclables por hora. Los datos son suministrados en tiempo real gracias a los
sensores y a las imágenes que procesan las cámaras con el objetivo de identificar una amplia
variedad de basura y envoltorios de comida y bebida. Además, este sistema es capaz de reconocer
logos, marcas y formas en 3D (Maisueche Cuadrado, 2019).

Los controles de calidad realizados por humanos corren el riesgo de ser erróneos. Sin embargo, la
calidad de los productos es un aspecto imprescindible que puede ser controlado con ML. Además,
conocer de antemano si la calidad de la producción se está deteriorando, previene el gasto
innecesario de materia prima y de tiempo (Maisueche Cuadrado, 2019).

15
En la industria es de suma importancia tener un sistema automatizado que permita tener
producciones ágiles donde se optimicen los recursos utilizados es por esto qué las ventajas que
representan generar algoritmos y maquinarias que presenten actitudes de aprendizaje como las de
un humano hacen que las industrias tengan ventajas competitivas en el mercado. Una mejora en la
calidad de los productos también es otra ventaja que pueden brindar los métodos como ML a partir
de IA y este punto es clave ya que las producciones en fábricas normalmente pueden generar ciertas
fallas por defectos que al final representan pérdidas hacia la empresa donde el poder detectarlas a
tiempo y gestionar el trasfondo de esta falla con exactitud en el menor tiempo con la ayuda de
algoritmos de detección de defectos hace más simple la gestión de la alteración en producción.

16
CAPÍTULO 3. REVISIÓN BIBLIOGRÁFICA
En este capítulo se desarrolló una revisión bibliográfica donde se presentan algunos de los estudios
y análisis de las principales aplicaciones y métodos de utilización de la IA en áreas vinculadas a la
ingeniería química, clasificándose según su objetivo específico como estudio y aplicación. El
principal objetivo de la IA es poder recrear las actividades del ser humano, y poder hacer la
optimización de sus procedimientos. Esto se traduce a la capacidad de las máquinas para utilizar los
algoritmos, aprender de datos y desarrollar simulaciones que permitan identificar errores y realizar
mejoras.

Para este capítulo se divide la información en tres grandes ramas de aplicación, según la meta de
cada estudio analizado: predicción, optimización y educación. Los estudios fueron clasificados
según el análisis de los fundamentos, metodologías y resultados obtenidos de cada tema.

3.1. Clasificación y análisis de temas

Los temas se han identificado y seleccionado a partir de la búsqueda de aplicaciones de la IA, ML


y temas afines dentro de ramas de la ingeniería e industria química, todo esto gracias a bibliotecas
de acceso público, como Taylor and Francis, Royal society, Willey Online, ProQuest One
Academic, entre otras. Todas ellas accedidas a través de los recursos electrónicos de la Biblioteca
Florentino Idoate, S. J.

La selección radica en tres temas de aplicación: predicción, optimización y educación a raíz de las
metodologías, algoritmos, bases de datos y estudios. Esto puede identificarse en la tabla A.1 y tabla
A.2 del anexo A, donde se da la representación visual de los temas y su respectivo análisis.

3.1.1. Predicción
Para los estudios clasificados en la categoría de predicción, se determina con una declaración
precisa lo que podría ocurrir a partir de condiciones determinadas. Es decir, se realiza la
identificación y determinación de parámetros necesarios para poder inferir un resultado. Para ello se

17
ha entrenado una IA para poder determinar variables, coeficientes, constantes u otros valores de
algún procedimiento.

Cabe mencionar que la predicción a partir del ML no busca sólo la determinación de un coeficiente
o variable a condiciones predeterminadas. Sino que se busca crear modelos que puedan ser
utilizados para predecir los valores en cuestión a partir de datos nuevos, que representen
condiciones distintas a aquellas en las que se desarrolla el modelo por primera vez. Esto permite ir
refinando resultados de forma continua o cuando sea requerido, sin volver a realizar los
procedimientos que tomarían más tiempo y esfuerzo para un ser humano, gracias a la capacidad de
procesamiento de las computadoras actuales, lo que permite ir mejorando la exactitud de los
resultados.

Los estudios citados en esta sección hacen predicciones por medio de IA a partir de varias
metodologías como redes neuronales, simulación a partir de: ajustes gráficos, métodos numéricos,
análisis de ecuaciones, funciones y regresiones lineales o polinómicas, basándose en el tipo de
relaciones que los materiales o sujetos de estudios tengan con el entorno y sus variables internas,
para poder obtener coeficientes, estados o condiciones, variables o incluso poder predecir todo un
comportamiento.

 Predicción de variables y condiciones de proceso


La predicción como se mencionó anteriormente puede servir en objetivos de mejoras de procesos,
mediante la obtención de parámetros, identificación de condiciones o variables de estos. A
continuación, se discuten diferentes publicaciones donde la IA se ha aplicado para la obtención de
variables, condiciones de proceso y parámetros asociados.

Dentro de las aplicaciones de predicción, que suelen ir de la mano en la mejora de procesos, Sirawit
Prukasawan et al, definen la predicción y optimización de la fuerza adhesiva epóxica, publicado el
21 de octubre de 2019. El objetivo principal del ML en la ciencia de los materiales es buscar
materiales altamente funcionales con propiedades que se adapten a los requisitos de una aplicación
específica, donde se presenta el problema, que, para bases de datos con cantidades de muestra bajos,
tienden a tener problemas para poder elaborar procesos con apoyo del ML, ya que restringe el uso
de algoritmos y la capacidad de extracción de información, utilizándose un modelo de ML con
refuerzo de gradiente basado en un conjunto de árboles de decisión individuales, entrenados de
forma secuencial. Cada nuevo árbol emplea información del árbol anterior para aprender de sus

18
errores, mejorando iteración a iteración. Funcionando como estrategia del aprendizaje activo, que
suele ser eficaz para la mejora en procesos y modelos de predicción (Rodrigo, 2020).

Este estudio demuestra el importante impacto del aprendizaje activo para acelerar el diseño y el
desarrollo de materiales a medida altamente funcionales a partir de conjuntos de datos muy
pequeños (Pruksawan et al., 2019).

Dentro del enfoque para la predicción de variables, se presenta la investigación acerca de predicción
de la tasa de corrosión y los factores asociados en aceros de baja aleación en condiciones de
atmósfera marina mediante el uso de ML, publicado por Luchun Yan et al, el 19 de junio de 2020,
enfocándose en la limitada habilidad de regresión de los algoritmos convencionales y modelamiento
de los objetos, debido a factores individuales de los materiales, las condiciones en las que se
encuentran y factores medioambientales, que pueden afectar en las propiedades y comportamiento
de los materiales. Yen et al presentan un modelo basado en la metodología de ML para la
simulación de la corrosión en aceros de baja aleación en condiciones de atmósfera marina,
evaluándose las correlaciones entre el material, los factores ambientales y la velocidad de corrosión,
realizándose un análisis intuitivo de las influencias en el comportamiento de corrosión de los
aceros, mediante el uso de los factores dominantes seleccionados como variables de entrada. A
partir del estudio de los parámetros: la correlación entre los materiales, factores medioambientales y
factores que afectan la velocidad de corrosión. Se utilizan métodos para la determinación del
coeficiente de correlación y el coeficiente máximo de información, y otros factores incluyendo la
composición de la aleación, la temperatura del aire, humedad, precipitación, radiación solar,
precipitación de cloro, tasa de precipitación de dióxido de azufre y periodos de exposición.

Para el estudio por parte de Yan et al se trabajan los datos de las hojas de corrosión del instituto
nacional de ciencia de los materiales. En donde a partir de datos de diferentes grupos de materiales
que fueron expuestos en tres lugares de exposición atmosférica. Se emplean algoritmos para la
predicción de modelos de tasas de corrosión, a partir de métodos estadísticos y métodos con
funcionamientos de redes neuronales en aplicación del ML como lo son: regresión lineal múltiple
(MLR), regresión cresta (RR), regresión de vectores de soporte (SVR), bosque aleatorio (RF), árbol
de decisión con gradiente impulsador (GBDT) y gradiente impulsador extremo (XGBoost).

A partir de los datos recolectados basados en la corrosión atmosférica, y las correlaciones que se
mención, el factor que más influye en la velocidad de corrosión es la composición química, los

19
depósitos y la precipitación de cloro en los primeros años de exposición a las condiciones marinas,
pero a lo largo de la predicción y la formación de las capas de corrosión la humedad relativa se
convierte en el factor medioambiental más importante, ayudando a determinar los comportamientos
de los aceros a lo largo del tiempo y evaluando la resistencia a la corrosión según su composición,
permitiendo optimizar el uso de aceros en condiciones de atmósferas inestables y extremas a partir
de la predicción del comportamiento ante dichas condiciones y variables externas (Yan et al.,2020).

La predicción puede ir representada no solo en una variable del procedimiento o enfoques de


obtención de un resultado, sino que en investigaciones de equilibrio termodinámico en mezclas de
vapor-líquido como lo presenta Sandra Milena López en su artículo publicado el 26 de mayo de
2021, en la predicción de equilibrios de fase en mezclas hidrocarburo/agua, siendo un tema
complicado y de considerable importancia para los procesos químicos debido a la existencia de
diversas incertidumbres en los equilibrios de fase. López plantea a partir de la predicción del
número correcto de fases en el análisis de estabilidad para la utilización de la energía libre de Gibbs
de mezcla y el modelo NRTL proporcionar una excelente comprensión de los problemas de cálculo,
cuando se usa el software HYSYS V9 y Aspen Plus V9, para aclarar estas incertidumbres, en el
estudio de mezclas de nafta/agua se descubre que el n-octano y agua son buenos sustitutos en
cuanto al análisis de problemas de cálculo, gracias a los software se pueden obtener los puntos de
partida con módulos de equilibrio VL y VLL,, pero se tiene una desventaja al utilizar estos software
y es que los resultados con respecto a las mezclas de hidrocarburos/agua de estas simulaciones no
siempre son confiables.

López presenta en el estudio la comparación entre diferentes modelos, pero el que es determinante y
representado como el óptimo, es el modelo termodinámico NRTL para los distintos cálculos de
equilibrio. Este modelo fue programado usando Python, considerando el análisis de energía libre de
Gibbs usando parámetros de interacción binaria (BIP) de HYSYS V9, Aspen Plus V9 y la literatura
técnica, con el objetivo de mejorar los modelos que conducen a simulaciones bifásicas, prediciendo
de esta manera las presiones de vapor y la región trifásica, además pueden proponer modelos de ML
basados en grandes bases de datos para predecir el número de fases bajo las condiciones antes
estudiadas, con un excelente desempeño con modelo KNN (k-nearest neighbors) y el modelo SVC
( Support Vector Classifier) ponderado (Lopez.,2021).

Enfocándose en investigaciones de temas de reciente auge, se plantea un nuevo marco dentro del
ML para la predicción de la conductividad térmica, como lo mencionan los autores Yajing Sun et al

20
en su artículo publicado el 29 de octubre de 2021. El estudio se enfoca en las propiedades de
transporte térmico de los materiales cristalinos mediante gráficos de cristales de nuevos materiales,
donde la conductividad térmica de la red (CT) es una importante propiedad intrínseca del material
que ha recibido una amplia atención. Sun et al plantea como los métodos de ML podrían ser una
buena alternativa en la predicción de las propiedades de transporte térmico. En donde aumenta la
importancia de encontrar un marco más universal para la extracción de características de los
materiales y los algoritmos de formación, en específico este estudio presenta un nuevo marco de
algoritmos de ML de conjuntos integrados de convolución de grafos cristalinos fue entrenado para
predecir la CT, en donde la única característica de entrada era la estructura cristalina. se integraron
múltiples aprendices individuales para mejorar la capacidad de aprendizaje de todo el marco de
algoritmos. Este marco de ML se utilizó para predecir el CT de materiales cristalizados y presentar
un excelente rendimiento. Este estudio enfoca el ML como una herramienta, para la predicción no
solo de la conductividad térmica, sino también de propiedades de fonones y electrónicas
relacionadas con la estructura, las cuales puedan ser representadas de forma gráfica (Yajing & Hu,
2021)

Continuando con el tema de predicción de variables los autores Ekaterina Grachevara et al,
presentan la predicción de coeficientes de expansión térmica lineal para los homopolímeros amorfos
basados en la estructura química publicado el 29 de noviembre de 2021, en donde explican la
expansión térmica como una propiedad macroscópica de los polímeros, aunque no se tiene un
modelo basado en la expresión de su estructura con suficiente exactitud, Grachevara et al presentan
dos modelos predictivos basados en datos para el CET lineal, en estado vítreo a partir de la
únicamente la composición química. El primer modelo se construye con un programa SMILES-X y
se basa en el sistema simplificado de entrada molecular el cual se divide en tokens, que representan
los átomos, enlaces, ramas y anillos individuales; el otro método está basado en bosques aleatorios,
entrenados a partir de las huellas digitales y hallazgos de la conectividad extendida de la unidad de
repetición, Las huellas digitales codifican la información sobre cada átomo junto con sus vecinos
inmediatos situados dentro de un número fijo de enlaces, identificando que el número de enlaces se
conoce como radio y lo fija el usuario.

Hasta la actualidad no se tiene ningún modelo teórico o experimental para poder determinar el
coeficiente de expansión térmica a partir de la composición química. Para el caso de cerámicas o
metales, con estructuras rígidas que no son descritas como en vítreo, se tiene la posibilidad de
calcular el CET usando los principios de cálculo. El mecanismo de atención implementado en

21
SMILES-X permite tener una comprensión visual de a qué átomo o enlace presta atención un
modelo entrenado cuando calcula el CET lineal. El modelo de bosque aleatorio basado en huellas
moleculares permite un tipo de visualización similar. Sin embargo, debido a la naturaleza del
cálculo de huellas digitales, sólo es posible evaluar la importancia de átomos individuales para la
predicción, dejando al estudio como una posibilidad de continuar en el entrenamiento de las
metodologías para la predicción del CET (Gracheva et al., 2021).

Otro tema que ha sido clasificado como un objetivo de la predicción es el de poder predecir el
diagrama de transformación por enfriamiento continuo para zonas afectadas por soldadura,
publicado por Satoshi Minamoto et al, el 13 de octubre de 2022. El diagrama de transformación por
enfriamiento continuo (CCT) de los aceros es muy importante para considerar la transformación de
fase en función de la velocidad de enfriamiento de un material. El objetivo de este estudio es
establecer una técnica para poder predecir el CCT haciendo uso del ML y métodos de IA para
simular sus comportamientos, con la mejor aproximación ante condiciones arbitrarias como la
composición y la velocidad de enfriamiento. Para ello se presenta un modelo de predicción del CCT
para la transformación afectada por la zona de calentamiento (HAZ) usando el ML basado en datos
experimentales existentes. El diagrama CCT real varía significativamente con la composición del
material, el diagrama CCT tiene que ser para cada acero en base de los resultados experimentales.

Minamoto et al hacen referencia a metodologías previas basadas en redes neuronales, regresiones


lineales y metodologías de bosques aleatorios, para aplicarlos en su estudio de la representación y
prediccion de la temperatura de transición, además muestra la comparación entre los datos que se
predicen a partir de los modelos y la información experimental para la temperatura AC3 en donde
se representa la predicción y la temperatura experimental como un análisis de dispersión, ya que es
la temperatura en la que el hierro cristaliza. Además de que predice en las diferentes fases el
comportamiento y la transformación a lo largo de diferentes puntos, esto a partir de: la velocidad de
enfriamiento crítica, la temperatura a la que comienza la transformación a distintas velocidades de
enfriamiento; y una doble verificación cruzada (DCV). En comparación entre los resultados de la
predicción y los valores experimentales. Se tiene que los realizados en este estudio a comparación
de los referidos tienen una mayor aproximación al gráfico de enfriamiento continuo por el enfoque
a las temperaturas de transición. Las cuales la metodología busca representarlas mediante gráficos
de dispersión para su análisis y comparación.

22
El diagrama CCT del estudio de Minamoto et al ya ha sido utilizado e implementado en un sistema
llamado MInt, en el cual permite la conexión con diferentes diagramas de flujos interactivos que
mediante ML pueden generar las correlaciones e interacciones entre sus variables y parámetros esto
ayuda en el entendimiento de la microestructura e información de los materiales, a partir de las
propiedades mecánicas, composiciones y coeficientes dependientes de las aleaciones (Minamoto et
al., 2022)

En el estudio de la estimación de la resistencia a la tracción de las fibras de hojas de papel


presentado por los autores Ming Li et al el 7 de febrero de 2023, mediante ML a partir de madera
reciclada y material que no es derivado de la madera reciclada, naciente a partir de la necesidad de
encontrar la solución al problema del deterioro en las propiedades de la fibra utilizada para la
elaboración de hojas de papel, que inicia el problema de que los insumos elaborados a partir de
fibras recicladas no llegan al estándar de calidad y no cumplen los requerimientos de producto
terminado, ante esto Ming se plantea como meta estimar y predecir el deterioro de la resistencia a la
tracción de ambas clasificaciones de materiales, que sean provenientes o no de madera, así como de
otras propiedades de las hojas de papel fabricadas con fibras de madera y no de madera, en el cual
se busca estimar dicho deterioro a partir de dos modelos uno que trabaja a partir del índice de daño
y el modelado de ajustes de curva basado en teorías de las propiedades de la pulpa, utilizada en la
fabricación de las hojas de papel. Y además el desarrolló un modelo de red neuronal recurrente de
memoria a largo plazo para determinar el índice de daño según la secuencia de reciclado. Ambos
modelos fueron entrenados con los datos experimentales de retención de agua y el área de
adherencia relativa.

Min presenta además como los sucesivos procesos de reciclado en cadena provocan daños en el
papel, que incluyen macro y micro cambios en las fibras. Durante los procesos de fabricación y
reciclado del papel, las fibras tienen que soportar el cizallamiento, el prensado y el secado, lo que
provoca cambios significativos en sus propiedades. Para el desarrollo de la investigación, en primer
lugar, se utilizaron varias fibras vírgenes para formar hojas de manos y, a continuación, se
desfibraron las hojas de manos para producir fibras recicladas. A continuación, se formaban hojas
con las fibras recicladas, las cuales se desfibraban y reformaban de nuevo. El proceso de reciclado
se repetía cuatro veces, y las láminas se probaban para determinar las propiedades de las fibras
durante el proceso. El modelo de ajuste de curvas hiperbólicas y el modelo de red neuronal LSTM
se desarrollaron a partir de los datos experimentales, por último, se determinó y comparó la
estimación y predicción de la resistencia a la tracción a partir de los dos modelos.

23
Los resultados experimentales muestran que las propiedades respondieron negativamente al
reciclado, debido a las fuerzas de tracción. En la mayoría de los casos, el deterioro de las
propiedades tras el primer reciclado fue mucho peor que el de cualquier otro reciclado, a partir de
los resultados, el índice de daño propuesto podría utilizarse para estimar y predecir la resistencia a
la tracción de las hojas fabricadas con fibras recicladas, la precisión de las estimaciones de la red
neuronal fue menor que las de ajuste de curvas, demostrando como los modelos para el
almacenamiento y análisis de datos en forma de las redes neuronales tiene la capacidad de predecir
la capacidad y resistencia que tendrán diferentes insumos. (Li et al.,2023)

 Predicción para variables medioambientales y procedimientos de controles atmosféricos


En este apartado se clasifican temas asociados a las capacidades de predicción en temas de mejora
de respuestas ante condiciones medioambientales y sus variables, mediante el análisis de las
metodologías de la IA, como lo son redes neuronales, enfoques de metodologías de
retroalimentación y ML, entre otros, que se mencionan a continuación.
Dentro de las aplicaciones de redes neuronales y el enfoque de predicción para condiciones y
variables medioambientales, se ha demostrado que estas técnicas pueden potenciar estudios previos
o modificar completamente las metodologías tradicionales. Un ejemplo destacado es el estudio
realizado por Niranjan Pramanik et al., donde se aborda el uso de redes neuronales y sistemas de
inferencia neurodifusos adaptativos para la predicción del caudal de los ríos, con el objetivo de
controlar los flujos y prevenir inundaciones durante períodos de lluvia.

En contraste con enfoques lineales que pueden ser limitados para representar comportamientos
variables y no lineales de los ríos, las redes neuronales artificiales permiten modelar sistemas
hidrológicos complejos y no lineales. Esto resulta especialmente útil cuando se enfrenta la escasez
de datos o la presencia de variables no controladas en las condiciones hidrológicas. Al igual que en
los estudios mencionados sobre la calidad atmosférica y la concentración de dióxido de sulfuro, las
redes neuronales artificiales se combinan con métodos de IA y ML para capturar la naturaleza
aleatoria y simular diferentes condiciones.

En general, se utilizan dos tipos de redes neuronales, los perceptrones multicapa (MLP) y las
funciones de base radial (RBF), para abordar problemas hidrológicos. También se emplea la
estructura ANFIS, que permite mapear funciones de entrada y salida a través de parámetros

24
asociados. Este enfoque computacional blando utiliza un sistema de inferencia difusa (FIS) para
expresar un conjunto de datos de entrada-salida y lograr un mapeo no lineal entre ellos.

El entrenamiento de redes neuronales juega un papel fundamental en su mejora, ya que permite


adaptar los modelos para minimizar la diferencia entre la salida deseada y la respuesta
experimental. Algoritmos como la retropropagación son comunes en este proceso, permitiendo
revisar y verificar los datos en múltiples niveles, lo que facilita la identificación de áreas de mejora
cuando los resultados del ML no son satisfactorios. Esto conduce a una simplificación de la
estructura de la red y minimiza el impacto de los pesos en el modelo.

En el estudio presentado por Pramanik, se utilizan técnicas de IA, redes neuronales artificiales
(ANN) y un sistema de inferencia neurodifusa adaptativo (ANFIS) para estimar el flujo en una
sección aguas abajo de un río, utilizando datos de flujo en ubicaciones aguas arriba. Se evalúan
diferentes modelos con distintas combinaciones de variables de entrada utilizando ambas técnicas.

En resumen, el uso de redes neuronales y técnicas de IA en la predicción de variables


medioambientales, como el caudal de los ríos, permite superar las limitaciones de los enfoques
tradicionales y proporciona una mayor capacidad para modelar sistemas complejos y no lineales.
Estas metodologías mejoradas brindan la oportunidad de tomar medidas preventivas y gestionar de
manera más efectiva los recursos naturales, contribuyendo así a una gestión ambiental más precisa y
sostenible.

Los métodos de IA no solo se enfocan en la predicción de condiciones para poder mejorar


procedimientos, sino que permiten el análisis preventivo, mejora del tiempo de reacción, predicción
de daños y realizar medidas correctivas. En el análisis espectroscópico para mapear los efectos de
los incendios forestales de forma remota mediante imágenes de teledetección por los autores Dale
Hamilton et al, publicado el 13 de julio de 2017, presentan como los incendios forestales queman
entre 1,5 y 4 millones de hectáreas de terreno en Estados Unidos cada año, lo que contribuye a la
erosión posterior al incendio, la degradación del ecosistema y la pérdida de hábitat de la fauna
salvaje. A partir del uso de la IA todos estos efectos de los incendios forestales, pueden ser
cuantificados a raíz de los análisis retroalimentados en respecto a las áreas involucrados, la
severidad del daño todo gracias al análisis espectroscópico de diversas muestras de vegetación viva
y quemada para identificar la separabilidad espectral de las clases de vegetación, se seleccionó un
conjunto óptimo de espectros para ser utilizado por clasificadores de ML

25
Los métodos actuales para adquirir imágenes que se pueden utilizar para evaluar los efectos de los
incendios forestales se basan en satélites, como en el caso de Landsat un programa de satélites
manejados por la NASA y el servicio geológico de EE. UU., que tienen una resolución espacial de
30 m, utilizados en incendios forestales. Los métodos actuales de adquisición de imágenes también
han incluido el uso de aeronaves tripuladas, pero con el propósito de obtener imágenes posteriores a
los incendios, como parte del ML y modelos retroalimentados, se destaca que las aeronaves
tripuladas son mucho más costosas que los sistemas de aeronaves no tripuladas (sUAS) y además
pueden tener separaciones en los datos, esta separación se encontró tanto con datos hiperespectrales
como con datos de color multiespectral transformados a partir de los datos hiperespectrales
utilizando el TCM. Estos resultados muestran la posibilidad de mapear la severidad de los incendios
forestales utilizando las cámaras digitales a color que vienen de serie en muchas sUAS, mediante la
detección de la luz reflejada en tres bandas que cubren el mismo espectro de 450-700 nm. Hamilton
et al plantean como se puede permitir la adquisición, análisis y gestión de imágenes de
hiperresolución para mapear la severidad de los incendios de manera más rápida, económica y
segura que con los métodos actuales. Esto incluye el desarrollo y calibración de herramientas de
adquisición de imágenes, procesamiento y clasificación dentro de la plataforma de análisis de
efectos de incendios (Hamilton et al.,2017).

En continuación a la gestión y análisis de incendios forestales, se tiene el artículo publicado por


Piyush Jain et al el 1 de julio de 2020, en donde amplía los alcances de aplicaciones de ML para la
gestión de incendios forestales, en donde presentan como la IA se ha aplicado en la ciencia y el
manejo de incendios forestales desde la década de 1990, con aplicaciones tempranas que incluyen
redes neuronales y sistemas expertos, desde entonces, el campo ha progresado rápidamente de
manera congruente con la amplia adopción de métodos de ML en las ciencias ambientales. El
objetivo de dicha investigación es dar a conocer el alcance de las aplicaciones de ML en la ciencia y
la gestión de incendios forestales, a partir de diferentes métodos de ML, como lo son los árboles de
decisión y bosques aleatorios, se pueden hacer simulaciones de comportamientos e interacciones de
uno o más agentes autónomos, clasificándolos en grupos, y gracias a los árboles de decisión y su
capacidad de generar nodos de decisión para la representación de escenarios, y pueden determinarse
diferentes decisiones, además representar cómo se vería afectada la respuesta ante un incendio
forestal. Mientras que los bosques aleatorios permiten designar con estos puntos de cada notó y
añadir eventos aleatorios y pueden asignar etiquetas a cada caso.

26
La gestión eficaz de los incendios forestales y de los incendios simulados es un paso crítico esencial
hacia unas zonas silvestres sanas y sostenibles. Una comprensión cuantitativa de las relaciones entre
el combustible, el comportamiento del fuego y los efectos sobre el desarrollo humano y los
ecosistemas puede determinar los mejores cursos de acción ante la crisis. La reflectancia es una
relación entre el flujo radiante emitido (radiancia) y el flujo radiante recibido (irradiancia) que
medimos con un espectrofotómetro UV-Vis Cary 100. El espectrofotómetro mide la reflectancia
espectral difusa que se produce cuando la luz se refleja en superficies rugosas, demostrando en el
estudio espectrofotométrico que el examen de la reflectancia media de la clase muestra una
separación espectral completa entre la ceniza negra y la ceniza blanca

Jain et al mediante su artículo permiten identificar como la gestión y estudio de incendios forestales
previos, desempeñan un papel activo en el suministro de datos históricos de incendios forestales
relevantes, de alta calidad y de libre acceso para que los utilicen los profesionales y apliquen los
métodos de ML, para los cuales es imperativo que la calidad de los datos recopilados por las
agencias de gestión sea lo más sólida posible, y de lo más fiable puesto que los resultados de
cualquier proceso de modelado dependen de los datos utilizados para el análisis, por el contrario, se
debe reconocer que, a pesar de que los modelos de ML pueden aprender por sí mismos, se necesita
experiencia en la ciencia de los incendios forestales para garantizar un modelado realista de los
procesos de incendios forestales, mientras que la complejidad de algunos métodos de ML (Jain et
al., 2020).

En continuación con elementos del ML en variables medioambientales y con enfoque a la


predicción; mediante apoyos de elementos gráficos y visuales, se tiene el ML frente a modelos de
regresión lineal para la predicción precisa de concentraciones de ozono por los autores Ellysia
Jumin et al, publicado el 13 de mayo de 2020. El estudio nace debido a que en Malasia se han
registrado con frecuencia altos niveles de concentración de ozono troposférico que superan los
niveles permitidos. Jumin et al proponen un modelo preciso basado en algoritmos de ML para
predecir la concentración de ozono troposférico en las principales ciudades. El análisis de estas
concentraciones está basado en los datos recopilados de diferentes parámetros sobre la
concentración atmosférica durante tres años, buscando predecir la concentración de ozono para
periodos de tiempo los cuales a partir del uso del ML se logró disminuir el tiempo de horas. Esto no
ha sido un tema que se presente hasta este estudio, pues en todo el mundo se han iniciado y puesto
en marcha diversos métodos para predecir la concentración de ozono, como la regresión
determinista (modelo teórico y detallado de difusión atmosférica), la regresión estadística y la

27
Regresión Lineal Múltiple (MLR) siendo uno de los métodos de regresión lineal más populares para
predecir la concentración de ozono, pero a partir del auge de la IA como un método no lineal para la
resolución de problemas complejos, se le da el enfoque y estudio de la calidad del aire.
Recientemente, muchos investigadores han utilizado máquinas de vectores soporte (SVM) para
predecir la concentración de ozono en series temporales anticipadas.

En la comparación y análisis de los métodos de regresiones lineales y métodos de ML con enfoques


a modelos de regresión lineal potenciados por árboles de decisión, redes neuronales y
normalizadores de puntos máximos y mínimos para la predicción precisa de las concentraciones de
Ozono, se puede determinar que la mejora ha sido muy relevante, puesto que con lo mencionado
anterior se ha permitido que se presente una disminución en la base de datos necesarias para la
predicción de las cantidades de Ozono, pasando de 24 a 12 horas de recopilación, lo que deja
abiertas las posibilidades de lograr optimizar y obtener una predicción más precisas en un menor
tiempo utilizando bases de datos cada vez menores, con los potenciadores y metodologías para la
normalización de datos, toda esta mejora se obtiene a raíz de la capacidad que tienen los programas
y métodos para interpretar la referencia de datos, a partir de estaciones de monitoreo, las cuales
registran: la calidad del aire y la información meteorológica del departamento de medio ambiente
local. El conjunto de datos original incluye la velocidad media horaria del viento (WS), la humedad
(HUM), el óxido de nitrógeno (NOx), el dióxido de azufre (SO2), el dióxido de nitrógeno (NO2), el
ozono (O3) y el monóxido de carbono (CO) (Jumin et al., 2020).

Ampliando la revisión y en continuación a temas identificados en la mejora de la calidad del aire se


presenta como en los últimos años la electrocatálisis se ha vuelto un tema de interés puesto que se
han implementado métodos en conjunto a la IA, como lo es el uso de la rama ML mediante el
aprendizaje supervisado, aprendizaje no supervisado, aprendizaje profundo y más. En el artículo
sobre el cálculo y diseño acelerado de electrocatalizadores para la reducción de CO2 mediante ML
de los autores Zhehao Sol et al publicado el 30 de marzo 2022, expone la importancia de reducir los
niveles de CO2 debido a que los incrementos de este afectan en el cambio climático y directamente
a la población en aspectos de salud. Sol presenta a partir del aprendizaje supervisado un modelo de
regresión para la predicción de CO de sistemas de grafeno metal-no metal dispersos atómicamente
dónde se utilizaron los algoritmos de bosques aleatorios y vectores de soporte dónde el algoritmo
que mejor ajustó la predicción fue el de bosques aleatorios.

28
Sol et al presentan en su artículo un enfoque que no solo ofrece beneficios en cuanto al empleo de
las técnicas de ML en la predicción de parámetros como lo son las concentraciones de CO2, sino
que también permite tener un panorama para futuros estados de mismas índoles donde se tendrán
oportunidades y desafíos diferentes (Sol et al, 2022).

Dentro de los estudios asociados a la predicción de concentraciones de parámetros atmosféricos


Wenhao Xue et al presentan en su artículo la estimación de ozono en superficie continua por
modelos de transporte químico y ML publicado el 12 de Julio de 2022, como la contaminación del
aire es un desafío ambiental importante en muchas regiones del mundo, y el ozono en la superficie
es un contaminante particularmente problemático debido a su impacto negativo en la salud humana
y el medio ambiente. Para abordar este problema, los investigadores combinaron modelos de
transporte químico y técnicas de ML para estimar la concentración horaria de ozono en la región de
BTH.

El estudio utilizó el modelo WRF-Chem, que es un modelo de transporte químico ampliamente


utilizado en la investigación atmosférica, junto con el algoritmo de ML Random Forest (RF). Estos
modelos se combinaron con datos de emisiones antropogénicas y conjuntos de datos meteorológicos
para generar mapas de cobertura completa de ozono a una resolución horizontal de 9 km.

Los resultados mostraron que el modelo propuesto fue capaz de capturar la variación diurna en la
concentración de ozono, reflejando los cambios en la temperatura y la radiación solar a lo largo del
día. Se estableció un modelo de dos etapas para estimar la concentración de ozono cercana a la
superficie en la región de BTH, lo que permitió obtener resultados altamente precisos en la
simulación horaria de ozono.

El modelo demostró una alta capacidad de simulación y estabilidad, con valores de R2 de


validación cruzada y pendientes de regresión lineal que oscilaron entre 0.82 y 0.95, y 0.77 y 0.93,
respectivamente. Los resultados también indicaron que las condiciones de reacción del ozono, como
la radiación solar y la temperatura, así como la actividad humana y los niveles de precursores,
varían a lo largo del día, lo que influye en los índices de evaluación del modelo. Se observó que las
horas comprendidas entre las 12 del mediodía y las 6:00 p.m. mostraron los mejores resultados, con
valores de R2 superiores a 0.93 y pendientes de regresión lineal superiores a 0.90. Esto sugiere que,
durante este período, el modelo logró una simulación precisa y estable de la concentración de ozono
cercana a la superficie.

29
En general, este estudio demuestra la capacidad del enfoque combinado de modelos de transporte
químico y ML para predecir y estimar la concentración de ozono en superficie en la región de BTH.
Los resultados obtenidos brindan información valiosa para el control de la contaminación
atmosférica y la toma de decisiones relacionadas con la calidad del aire. Además, sientan las bases
para futuras investigaciones y aplicaciones de modelos ML en el campo de la predicción de
parámetros atmosféricos y la gestión ambiental. (Xue et al., 2022).

En seguimiento a metodologías para la predicción a partir del ML y la IA en factores


medioambientales se presenta el estudio de los niveles de calidad del dióxido de azufre (SO2)
publicado por Mohammed Alamoudi et al el 6 de diciembre de 2022, en donde su enfoque fue la
ciudad de Jeddah para medir y analizar a partir de modelos de ML factores meteorológicos y
químicos. En esta revisión bibliográfica se exponen enfoques de ML para determinar los impactos
de los contaminantes del aire y los parámetros meteorológicos en los niveles de SO2. Presentándose
al igual que el estudio por parte de Xue los análisis de control de concentraciones de Ozono.

La demanda de modelos para el control de la calidad del aire ha aumentado considerablemente,


especialmente debido a la creciente necesidad de sistemas de alerta rápida que permitan tomar
medidas inmediatas y preventivas para minimizar la contaminación en caso de prever circunstancias
que generen contaminantes atmosféricos. La contaminación atmosférica tiene efectos adversos a
largo plazo, como la lluvia ácida, el calentamiento global y otros riesgos asociados al medio
ambiente y la salud humana. Por lo tanto, es fundamental una intervención inmediata por parte de
los medios de gestión para monitorear la calidad del aire. El uso del ML conlleva mejoras no solo
en el tiempo de respuesta, sino también en la cantidad de datos evaluados para determinar el mejor
curso de acción. A diferencia de los métodos computacionales tradicionales basados en principios
físicos, que suelen requerir más tiempo de análisis, el ML permite una evaluación más rápida y
precisa. Por ejemplo, en el estudio de predicción de los niveles de dióxido de sulfuro, se utilizan
redes neuronales para potenciar la relación no lineal entre el dióxido de sulfuro y las variables de
entrada, como NO, NO2, O3, PM10, HYC, NMHC, RH (Humedad relativa, T y P), que son los
factores significativos que afectan la contaminación atmosférica.

En conclusión, el estudio de Alamoudi presenta opciones adicionales para la determinación de la


concentración y calidad del dióxido de azufre (SO2) mediante el uso de métodos como la regresión
adaptativa multivariante spline (MARS) y el Vector de soporte de regresión (SVR). Estas

30
herramientas permiten realizar análisis de regresión no lineal y análisis no paramétrico de forma
flexible. Además, se ha desarrollado un modelo híbrido inteligente que combina la precisión del
SVR con la influencia de las variables de entrada en el modelo MARS, aprovechando tanto las
condiciones químicas como las meteorológicas efectivas. El uso de estas herramientas de ML
potencia la capacidad de análisis e interpretación de datos, permitiendo obtener resultados más
precisos en la estimación de la concentración de SO2 y mejorando la comprensión de los factores
que influyen en la contaminación atmosférica.

Continuando con el hilo de estudio de propiedades que son de la naturaleza, las herramientas de la
IA permiten encontrar oportunidades de mejora y de prevención, el estudio de las concentraciones
de ozono, permite el análisis de las tendencias a partir de los datos recopilados y hacer decisiones en
una menor cantidad de tiempo, debido a que cuando está presente en cantidad suficiente, el ozono
troposférico puede tener graves efectos sobre la salud humana, como enfermedades respiratorias y
cardiovasculares. Estos enfoques permiten una gestión más eficaz de la contaminación atmosférica
y la toma de decisiones basada en datos confiables. (Alamoudi et al.,2022).

3.1.2. Optimización
Dentro de las aplicaciones de ML en la categoría de optimización, se puede determinar que su
principal objetivo va enfocado sobre procedimientos, metodologías y algoritmos, puesto que ayudan
a identificar parámetros no tomados en cuenta, parámetros que pueden tener mayor incidencia o
incluso realizar análisis cualitativo, para identificar las mejores opciones y acciones de respuesta o
resultado.

 Optimización de procedimientos y métodos


Las metodologías de optimización asociadas a procedimientos y métodos, tiene como principal
objetivo el poder identificar las posibles mejoras en las formas tradicionales. A continuación, se
presentan algunos de los temas más representativos en estos enfoques.

En su artículo publicado el 22 de octubre de 2021, los autores B. Talebjedi et al. presentan un


estudio sobre la simulación energética y análisis de variables del proceso de refinado en una fábrica
de pasta termomecánica. Este estudio resalta la capacidad de diferentes métodos de IA para simular
y proporcionar coeficientes de correlación en la refinería. El objetivo principal de la investigación
es abordar la preocupación creciente por el medio ambiente y los costos energéticos, centrándose en
mejorar la productividad de las industrias con alto consumo energético. En particular, la industria

31
del papel y la celulosa, o pasta de papel, se destaca como uno de los sectores con mayor consumo
energético a nivel mundial. El proceso de refinado, que implica la separación de fibras de lignina o
la disolución de lignina en agua caliente, se identifica como la etapa más costosa en el despulpado
termomecánico, principalmente debido al consumo de energía eléctrica involucrado.

Por otra parte, se busca representar la inmensa capacidad de diferentes métodos de IA para simular
y dar acceso a coeficientes de correlación en la refinería. El estudio nace debido al aumento de la
preocupación medioambiental y de los costos energéticos, se ha prestado mucha atención a la
mejora de la productividad de las industrias que consumen mucha energía, la industria del papel y la
celulosa o pasta de papel es uno de los sectores industriales con mayor consumo energético en todo
el mundo. Para que el proceso de refinado sea sostenible y eficiente desde el punto de vista
energético, se requiere una estrategia de control del refinado óptima. El diseño de un sistema de
control requiere un modelo de identificación del sistema. El rendimiento y la eficacia del
controlador del proceso aumentan con la mayor precisión del modelo de identificación.

El refinado es el proceso más caro de despulpado termo mecánico debido a que la energía eléctrica
es consumida para separar las fibras a partir de la lignina; o la disolución de lignina en agua
caliente, para la representación del modelo de red neuronal multilayer perceptron MLP se utilizan
diferentes entradas de datos, los cuales son diferentes combinaciones de la velocidad medida del
tornillo alimentador de refinado, el agua de dilución, la separación entre placas y el tiempo,
mientras que la única salida de la simulación es la carga del motor de refinado. El error de
simulación del conjunto de datos de validación es esencial en el método de redes neuronales y se
controla durante el proceso de entrenamiento de la red.

Dentro de las variables clasificadas en el proceso de refinado, se tienen variables: manipuladas,


variables de operación y variables de perturbación. Las cuales funcionan mediante un diagrama del
proceso que se interrelacionan a partir de las características del material, como lo es la especie de
madera, su densidad, el tamaño de la astilla, su humedad y las variaciones que puede presentar ante
las estaciones del año. Él modelo MLP investigó el efecto de distintas variables en el refinado,
como lo es la distancia entre platos de refinado, la cantidad de agua de la dilución para la
simulación energética del proceso de refinado. Con el cual alcanzan un coeficiente de correlación
del 98% mediante el aprendizaje profundo, concluyendo con la identificación de perturbaciones de
las variables y cambios en el refinado en base a la calidad de la madera, aunque de forma indirecta,
permiten identificar la capacidad de mejora con el ML (Talebjedi et al., 2021).

32
En la actualidad los diferentes enfoques que se obtienen a partir de ML en la optimización de
procesos han permitido obtener predicciones sobre propiedades moleculares rápidas y eficientes
como lo mencionan en su artículo los autores Sanggil Park et al, publicado el 26 de abril del 2022.
El uso del ML en problemas de reacciones químicas ha permitido predecir propiedades físicas como
cambios termodinámicos, barreras de activación y velocidades de reacción. Mediante el análisis de
datos y la creación de modelos basados en ML, se obtiene información valiosa para optimizar
procesos y tomar decisiones en química e ingeniería química.

Park et al proponen un modelo de ML que utiliza redes neuronales gráficas, bases de datos de
máquinas cuánticas y el modelo de PubChem para predecir propiedades moleculares y propiedades
de reacción. Este enfoque permite derivar una propiedad de reacción a partir de las propiedades
moleculares predichas, utilizando principios físicos como la conservación de energía. Sin embargo,
este enfoque tiene la limitación de aplicarse solo a funciones de estado, ya que se basa en la
información de las moléculas individuales en lugar de la reacción en sí misma. Aunque este modelo
no se basa en principios químicos y no requiere una caracterización explícita de las reacciones, es
necesario crear descriptores para las reacciones químicas. Esto implica la necesidad de una extensa
base de datos de reacciones, lo cual puede ser una de las principales desventajas de este enfoque. La
disponibilidad de una gran base de datos de alta calidad es crucial para obtener predicciones
precisas y exitosas mediante el uso de ML al crear modelos personalizados. La obtención de datos
precisos y relevantes es esencial para aprovechar al máximo el potencial de ML en la predicción de
propiedades moleculares y de reacción. (Park et al., 2022).

Por otro lado, el artículo por parte de Yinli Wang et al, sobre las aplicaciones de las redes
neuronales profundas en el diseño de compuestos, publicado el 14 de marzo de 2022, en donde se
aplica en el diseño y comportamiento de los sistemas de materiales compuestos modernos
presentándose en mayor auge por su alta resistencia y rigidez, en base a las propiedades ajustables y
alterables en la producción. En él articulo Wang et al, presentan un análisis sobre los estudios
recientes en los cuales se han desarrollado herramientas computacionales a partir de redes
neuronales, gracias a la capacidad de ML y él tiempo de procesamiento más rápido de grandes
conjuntos de datos. Presentando él potencial para resultados más precisos.

Wang aterriza su estudio en los conjuntos de datos de entrenamiento, el algoritmo y los datos de
salida como pasos operativos en el aprendizaje profundo. Presenta cómo los algoritmos con apoyo

33
del aprendizaje profundo sirven para resolver problemas de diseño de manera efectiva al
familiarizarse con los procesos de aplicación. Para ello, es necesario identificar los resultados
deseados, como las propiedades de los materiales, la forma o geometría estructural, o la geometría
de los componentes. En segundo lugar, se debe identificar el tipo de datos involucrados, teniendo en
cuenta el aprendizaje hacia atrás, es decir, la retroalimentación para generar modelos de aprendizaje
mediante la retro propagación. Se diseñan experimentos que evalúan las propiedades bajo diferentes
condiciones medioambientales, cargas estáticas, fatiga, fluencia y cargas dinámicas. Debido a la
naturaleza heterogénea y anisotropía, las propiedades de estos compuestos pueden ser dinámicas
internamente y variar según su composición. Su complejidad genera una serie de problemas en los
procesos de fabricación y en la inspección en servicio. Durante el proceso de fabricación de los
compuestos, es común que se produzcan microfisuras, rotura de fibras, porosidad, deslaminación e
inclusiones.

Además, se presentan en el artículo los avances y límites que enfrenta el ML en el desarrollo de


materiales compuestos, junto con los factores relacionados con estos desafíos. El estudio concluye
destacando que la falta de datos de alta calidad y la escasez de datos en cantidad suficiente
representan obstáculos significativos. Estas limitaciones restringen la profundidad del análisis y las
posibilidades de aproximación en este campo de estudio. Sin embargo, el artículo sugiere que se
pueden implementar mejoras y ofrece algunas recomendaciones para futuras investigaciones. Estas
medidas podrían abordar las limitaciones actuales, ampliar la disponibilidad de datos y, en
consecuencia, mejorar la precisión y eficacia de los modelos de IA utilizados en el descubrimiento
de materiales compuestos. (Wang et al., 2022).
Dentro de la física y la ingeniería de software, específicamente en las metodologías presentadas por
los autores Alexey Melnikov et al en su artículo publicado el 15 de febrero de 2023 sobre la
ingeniería cuántica, se aborda el tema del ML cuántico. Este campo se encuentra en rápido
crecimiento en la intersección de la tecnología cuántica y la IA.

Uno de los enfoques destacados en el artículo son los algoritmos de mejora cuántica, los cuales
aplican la ingeniería de software cuántico al procesamiento de información clásica. Estos
algoritmos buscan mejorar las soluciones de ML al mismo tiempo que reducen los recursos
computacionales necesarios, aumentando así la precisión de los resultados.

Dentro de los modelos de ML, se utilizan principalmente tres formas: supervisado, no supervisado y
reforzado. Estos métodos hacen uso de bases de datos y son capaces de trabajar con modelos

34
altamente complejos. Como resultado, surge una metodología mejorada dentro del campo del ML,
donde se busca aprovechar las capacidades de las computadoras cuánticas para proporcionar
modelos escalables de ML.

Estos modelos cuánticos ofrecen capacidades de aprendizaje más allá de lo que se puede esperar de
los modelos clásicos. Los modelos clásicos de ML se basan en la teoría estadística clásica, pero en
algunos casos pueden divergir de las encuestas sobre el comportamiento humano, por ello se puede
identificar que los modelos modernos ofrecen nuevas perspectivas y posibilidades en el campo del
ML, aprovechando las capacidades de las computadoras cuánticas para mejorar la precisión y
escalabilidad de los modelos. Este avance significativo en la intersección de la tecnología cuántica y
la IA tiene potenciales aplicaciones en diversos campos de estudio. En este sentido, las
metodologías de redes neuronales cuánticas se han utilizado para explorar las capacidades del ML
cuántico. Estas metodologías incluyen estrategias de codificación de datos, arquitecturas
parametrizadas y cálculo de pendientes, como el algoritmo de retro propagación y el método de
diferenciación de diferencias finitas. Mediante el uso de estas metodologías, se busca aprovechar las
ventajas de la computación cuántica para mejorar la eficacia y precisión de los modelos de ML.

Estos modelos permiten hacer uso de las redes neuronales cuánticas como: un estimador universal
de Fourier, en el cual se hace una serie truncada de Fourier limitada por la codificación en las que se
utilizan redes neuronales cuánticas como estimadores universales según los comportamientos,
permitiendo crear nuevos algoritmos y protocolos que puedan ser utilizados en la comunicación
cuántica es decir los métodos para transmitir la información y procesamiento basados en los
principios y efectos de la mecánica cuántica la cual mediante la simulación proyectiva.

El ML cuántico es un nuevo campo de investigación en rápido desarrollo en la frontera de la IA, la


ciencia de la información cuántica y la tecnología cuántica. Así, los resultados obtenidos juegan un
papel significativo en la creación de sistemas de software y hardware, los cuales se basan en el
enfoque gráfico en su base para demostrar cómo los conceptos de física pueden traducirse en
ingeniería práctica de soluciones de aprendizaje (Melnikov et al., 2023).

 Optimización de procesos de salud y alimenticios


Dentro de los alcances de optimización, se tienen ramas de la industria farmacéutica e industria
alimenticia que puede verse beneficiada de procedimientos de mejora a partir del ML y las
capacidades de la IA.

35
La optimización a partir del ML en la IA va más allá de componentes y productos fármacos, ya que
puede involucrarse en los estudios de mejora en alimentación y nutrición, gracias a la identificación
de oportunidades de mejora. En el artículo publicado por los autores Ricardo Vejarano et al el 14 de
diciembre de 2017, se presenta una revisión sobre cómo las imágenes hiperespectrales pueden
contribuir a la evaluación biológica de contaminantes presentes en los alimentos. Esta investigación
destaca la importancia del ML y la IA en la optimización de la seguridad e inocuidad de los
alimentos, El uso de imágenes hiperespectrales permite obtener una gran cantidad de información
sobre las propiedades biológicas y químicas de los alimentos, lo que facilita la detección y
evaluación de posibles contaminantes. Mediante técnicas de ML, es posible analizar y procesar
eficientemente estas imágenes para identificar patrones y características que indiquen la presencia
de contaminantes.

Vejarano plantea cómo las industrias alimentarias deben ir buscando tecnologías emergentes para
poder detectar riesgos a la salud humana a raíz de los productos y materias primas que tienen en sus
procesos de producción de alimentos, dentro de los métodos para la detección de riesgos, en
específico los contaminantes biológicos. Uno de los métodos más utilizados es mediante imágenes
hiperespectrales. Estas imágenes permiten detectar microorganismos deteriorativos, patógenos,
toxinas microbianas y parásitos que pueden contribuir al deterioro de los productos alimenticios y
representar un riesgo para la salud de los consumidores. Se estima que entre el 10% y el 50% de la
producción agrícola, principalmente de cereales y hortalizas, se pierde cada año debido a la
contaminación microbiana, y parte de estos alimentos contaminados puede terminar siendo utilizado
en la producción de alimentos.

Vejarano también presenta en su artículo métodos tradicionales y más comunes para detectar los
contaminantes, como métodos de ultrasonido, espectroscopia, detección por fluorescencia,
microscopía y él método de inspección visual, estos pueden presentan grandes inconvenientes,
requiriéndose mucho trabajo y tiempo. Mientras tanto, los métodos basados en la inmunología,
como el ensayo inmunoenzimático, se han empleado con éxito para la detección de la
contaminación microbiana.

La HSI es una tecnología emergente que integra las ventajas de la espectroscopia y la imagen
siendo su principio básico el hecho de que todos los materiales reflejan, dispersen o absorben
energía de forma diferente cuando se someten a una fuente de radiación electromagnética en

36
diferentes rangos de longitud de onda debido a la diferencia en su composición química y estructura
física. Cada componente alimenticio tiene una "firma espectral" o "huella espectral" típica la cual
cuando interactúa con la luz incidente, que puede utilizarse para caracterizar, identificar y
discriminar entre diferentes muestras. Esta "firma espectral" informa sobre su composición química
y puede representarse gráficamente frente a diferentes longitudes de onda, dando como resultado la
curva característica de reflectancia, absorbancia o transmitancia para cada sustancia. Esta revisión
da especial relevancia a la HSI como tecnología no destructiva prometedora para la evaluación de la
contaminación de origen biológico en los alimentos, ya que ofrece varias mejoras, como la
velocidad, la precisión y la fiabilidad con respecto a otros métodos.

Como cierre del artículo Vejarano presenta cuáles serían los principales obstáculos a vencer y tratar
en él uso de imágenes hiperespectrales, Son necesarias más investigaciones sobre la aplicación de la
HSI a un mayor número de especies microbianas, alimentos líquidos, presencia de parásitos en otros
tipos de carne (como la de cerdo) y desarrollo de modelos en diversas condiciones de
almacenamiento, lo que unido a la integración técnica de la HSI con otras tecnologías como la FMI
y la RMI, el aumento de proveedores comerciales que puedan reducir el coste y mejorar la
disponibilidad de los sistemas de HSI, las mejoras tecnológicas para el tratamiento de la
información espectral y la búsqueda de modelos robustos y optimizados, sin correr el riesgo de
perder información valiosa, darían a esta tecnología una mayor posibilidad de aplicación industrial
como alternativa a técnicas tradicionales como la cromatografía líquida, la espectroscopia MID-
FTIR, o las pruebas de ensayo inmunoenzimático y PCR, que además de tediosas, son caras y su
aplicación está limitada a nivel de laboratorio (Vejarano et al. , 2017).

Por otra parte, en el artículo de José Jiménez Luna et al, publicado el 26 de enero de 2021, se busca
representar como ha interferido la IA en el descubrimiento de fármacos, menciona cómo se han
utilizado varios métodos asistidos por computadora en el descubrimiento de nuevos fármacos.
Mediante el aprendizaje profundo, con redes neuronales artificiales y capas de procedimientos
ocultos que permiten identificar y analizar nuevas aplicaciones para la medicina moderna, presentan
el estado actual de la IA en quimio informática y dentro de los temas presentan una relación
cuantitativa estructural, basado en la estructura, el diseño molecular y la predicción de la síntesis
química. En concreto para él año 2021 Jiménez et al, presentan en su artículo la relación
cuantitativa estructura-actividad (QSAR/QSPR) basada en ligandos, así como el modelado basado
en estructuras, el diseño molecular de novo y la predicción de síntesis, que son clasificadas como
metodologías clásicas en él estudio y creación de fármacos, y abriendo el paso a la presentación de

37
las metodologías nuevas, y modelos que pueden reemplazar él como se plantean las mejoras en los
análisis de datos como lo es para él caso de QSAR/QSPR donde le IA entra mediante el uso de
redes neuronales en gráficas, modelos de convolución 3D hay sistemas multivariables y adaptativos.
para él caso del diseño de fármacos Novo se hace uso de modelos híbridos que no estén ligados a
las reglas y permitan plantear diferentes correlaciones, y enfoques de redes neuronales recurrentes;
y para él caso de la predicción de síntesis se replantea de igual manera con los métodos no ligados a
reglas y enfoques NLP o MCTS

En conclusión, el artículo de José Jiménez Luna et al. destaca el impacto de la IA en el


descubrimiento de fármacos. Se han utilizado métodos asistidos por computadora, como el
aprendizaje profundo con redes neuronales, para identificar nuevas aplicaciones en medicina. Estas
mejoras en el análisis de datos tienen el potencial de reemplazar enfoques convencionales y ofrecer
resultados más precisos en la creación de fármacos (Jiménez et al., 2021).

En continuación, con los estudios para el descubrimiento de fármacos, se tiene él artículo de los
autores Fabio Boniolo et al, publicado el 2 de junio de 2021. Donde buscan la medicina precisa, él
cual es el concepto de tratar enfermedades basado en factores ambientales, estilos de vida y perfiles
moleculares de los pacientes. Este enfoque se ha encontrado que aumenta las tasas de éxito en
ensayos clínicos y acelera las aprobaciones de medicamentos. Las aplicaciones actuales de
medicina de precisión en la etapa temprana del descubrimiento de medicamentos utilizan sólo
algunos biomarcadores moleculares para tomar decisiones, mientras que las clínicas se preparan
para capturar el panorama molecular completo de los pacientes en un futuro cercano. Para adaptar el
desarrollo de medicamentos a la heterogeneidad de los pacientes en función de sus perfiles
moleculares, los algoritmos de IA son la próxima frontera en medicina de precisión. Permitirán un
enfoque completamente personalizado en el diseño de medicamentos, impactando en última
instancia la práctica clínica.

El ML dentro del estudio se puede clasificar en aprendizaje supervisado, donde se conocen las
observaciones fenotípicas y se buscan relaciones entre las características de entrada y estas
observaciones. En contraste, el aprendizaje no supervisado tiene como objetivo descubrir patrones
ocultos en los datos mediante la agrupación o el modelado de factores latentes para explicar la
variabilidad observada. Junto a estos dos paradigmas fundamentales del ML, el aprendizaje por
refuerzo gana más relevancia en las ciencias biotecnológicas, especialmente en el desarrollo de
medicamentos, permitiendo que el modelo tome acciones, como introducir una alteración en el

38
aminoácido, en un entorno pre especificado (una proteína) para optimizar una propiedad específica
(eficacia). A diferencia de la mayoría de los otros métodos de ML, las redes neuronales profundas
pueden extraer automáticamente patrones altamente complejos de todo tipo de datos. Son exigentes
en cuanto a la cantidad de datos y a menudo resultan incomprensibles en cuanto a cómo llega una
red de aprendizaje profundo a sus conclusiones.

Sin embargo, dentro de las aplicaciones que menciona Boniolo, son altamente no lineales y, por lo
tanto, más desafiantes de interpretar. Para superar esto, ha surgido un subcampo llamado IA
explicativa, que estudia y desarrolla métodos para comprender mejor cómo los algoritmos de IA
llegan a sus conclusiones. Estos enfoques han tenido un gran impacto en muchas áreas de aplicación
de alto riesgo, como la medicina de precisión. Sin embargo, este campo aún está en sus primeras
etapas, especialmente para modelos complejos como las redes neuronales profundas (Boniolo et al.,
2021).

Habiendo cubierto temas en el descubrimiento de fármacos, el artículo escrito por Ziaurrehman


Tanoli et al, publicado el 12 de mayo de 2021; permite ampliar la visión mediante la utilización de
la IA, ML para la reutilización de fármacos en el cáncer y manifiesta que la reutilización de
fármacos proporciona una estrategia rentable para el reciclare mediante nuevas indicaciones
médicas aprobadas. Se han desarrollado varios enfoques de ML e IA para la identificación
sistemática de pistas de reutilización de medicamentos basados en recursos de Big data, lo que
acelera y reduce aún más el riesgo del proceso de desarrollo de medicamentos por medios
computacionales.

Los autores Tanoli et al, se centran en los métodos supervisados de ML e IA que hacen uso de bases
de datos y recursos de información disponibles públicamente. Aunque la mayoría de las
aplicaciones de ejemplo se encuentran en el campo de las terapias con medicamentos contra el
cáncer, los métodos y recursos revisados son ampliamente aplicables también a otras indicaciones,
incluido el tratamiento de la COVID-19. Se hace especial hincapié en el uso de perfiles de actividad
diana completos que permitan un proceso de reutilización sistemática ampliando el perfil diana de
los fármacos para incluir objetivos externos potentes con potencial terapéutico para una nueva
indicación. La escasez de datos clínicos de los pacientes y el enfoque actual en las aberraciones
genéticas como objetivos primarios de los medicamentos pueden limitar el rendimiento de los
enfoques de reutilización de medicamentos contra el cáncer que se basan únicamente en la
información basada en la genómica. Las pruebas funcionales de las células de los pacientes con

39
cáncer expuestas a un gran número de terapias dirigidas y sus combinaciones proporcionan una
fuente adicional de información de reutilización para los enfoques de IA conscientes de los tejidos.

Mediante esta descripción se da el uso de modelos supervisados de aprendizaje, con los recursos de
datos correspondientes, para tres niveles de tareas de predicción relacionadas con el proceso de
reutilización de fármacos. Primero, predicciones de bioactividad bioquímica para nuevos DTI; en
segundo lugar, predicciones de respuesta de compuestos basados en células para interacciones de
fármaco-línea celular/paciente; y tercero, predicciones de reutilización de fármacos por medio de
nuevas relaciones entre fármacos y enfermedades (Tanoli et al., 2021).

Dentro de las investigaciones para la mejora de productos farmacéuticos, como lo es las medicinas
orales, destaca el tema por los autores Hellen Mazur et al, publicado el 30 de junio de 2023, en
donde busca diseñar medicinas impresas de forma 3D, en la que pueda aplicarse la IA y ML.

En el estudio, se exploran las aplicaciones de redes neuronales artificiales (ANN) para predecir
geometrías adecuadas en la impresión 3D de formas de dosificación personalizadas. Las formas de
dosificación 3D impresas son ventajosas debido a su diseño de geometría variable, y la relación área
superficial/volumen, se imprimieron filamentos con un 5% de carga de principio activo y alcohol
polivinílico utilizando la técnica de modelado por deposición fundida para obtener una variedad de
geometrías con diferentes dosificaciones y relaciones SA/V, además se presenta cómo se produjo un
filamento que contenía el fármaco mediante extrusión de doble tornillo co-rotatorio utilizando una
matriz fabricada internamente con un diámetro de 1.85 mm, El filamento cargado con el fármaco se
imprimió en una impresora 3D FDM (Modelado por Depósito Fundido), estas formas se diseñaron
teniendo en cuenta la relación SA/V utilizando el diseño asistido por computadora (CAD). Las
geometrías impresas se describieron numéricamente de la manera más precisa posible para su
procesamiento utilizando ANN. Los parámetros registrados fueron el área superficial (SA), el
volumen (V), la relación SA/V, el peso total y la masa del API (mg total y mg del API), la altura de
la capa (lh) y el ancho de extrusión (ew) como parámetros de impresión, el número total de capas, la
longitud, altura y ancho de la geometría 3D, así como el diámetro de los poros y su área superficial,
la cantidad de capas de viga, su altura y la cantidad de cilindros/cilindros huecos conectados por las
vigas.

Para la predicción en primer lugar, se intentó predecir la forma con la mayor precisión posible con
etiquetas de clase, el siguiente paso, se utilizó el diámetro exacto, la altura, el ancho, el número de

40
poros, etc., para reproducir la apariencia de una geometría posible, con la que sea posible crear
fármacos, mediante la técnica de modelado por deposición fundida tomando en cuenta la relación
de área superficie y volumen. Los parámetros de impresión y las características geométricas se
describieron numéricamente para su procesamiento con redes neuronales artificiales. El objetivo
final es crear formas de dosificación efectivas y personalizadas mediante la tecnología de impresión
3D (Mazur et al., 2023).

El ML también representa no solo el estudio de fármacos de forma general, sino que también
permite estudiar el ciclo de vida, como lo plantean los autores Ola Spjuth et al en su artículo
publicado el 31 de mayo de 2021. En donde, mencionan como el descubrimiento de fármacos cada
vez es más necesario volver a entrenar continuamente los modelos y ponerlos a disposición en
entornos de producción. En su artículo se describe cómo la computación en nube puede ayudar al
ciclo de vida del ML en el descubrimiento de fármacos. Los autores analizan las oportunidades que
ofrecen él almacenamiento y los flujos de trabajo científicos, introducen el concepto de MLOps y
describen cómo puede facilitar un modelado ML reproducible y robusto en las organizaciones de
descubrimiento de fármacos.

La computación en la nube ofrece un conjunto convincente de bloques de construcción para


sostener el ciclo de vida de ML integrado en el descubrimiento iterativo de fármacos, ya que el ML
ha surgido como un método capaz de producir predicciones más precisas en aplicaciones
relacionadas con ciencias de la vida, se menciona como las redes neuronales convolucionales han
sido especialmente útiles para entrenar modelos de IA en imágenes, como las capturadas por
microscopía en experimentos basados en célula, el aprendizaje profundo requiere una
infraestructura informática adecuada y potencia de cálculo, como aceleradores gráficos (GPUs). El
artículo además presenta como el descubrimiento de medicamentos es un proceso en constante
cambio, y las soluciones basadas en la nube permiten a una organización o laboratorio adaptarse y
utilizar continuamente los recursos de hardware subyacentes para satisfacer las necesidades en
evolución. Se pueden distinguir tres niveles de servicio principales: Infraestructura como Servicio
(IaaS), Plataforma como Servicio (PaaS) y Software como Servicio (SaaS), en donde él IaaS, que se
libera de las organizaciones de carga es más fácil de usar.

Como cierre se presenta que la computación en la nube tiene ventajas prácticas y económicas para
el descubrimiento de medicamentos, al permitir a las organizaciones utilizar recursos informáticos

41
de manera flexible sin tener que administrarlos internamente. Esto proporciona escalabilidad,
eficiencia y agilidad en el proceso de descubrimiento de medicamentos (Spjuth et al.,2021).

Avanzando en métodos para optimización de medicamentos y procedimientos de salud se identifica


el tema de Ryan K. Tan et al publicado el 27 de abril de 2022 sobre sistemas orientados en la
industria personalizada de fármacos, el cual nace a partir de que muchas enfermedades sistémicas
multigénicas, como trastornos neurológicos, enfermedades inflamatorias y la mayoría de los
cánceres, aún no tienen tratamientos efectivos. La farmacología de sistemas impulsada por el
aprendizaje por refuerzo es un enfoque potencialmente efectivo para diseñar terapias personalizadas
para enfermedades complejas no tratables, se revisan los métodos de aprendizaje por refuerzo de
vanguardia y sus últimas aplicaciones en el diseño de fármacos. Se discuten los desafíos para
aprovechar el aprendizaje por refuerzo en la farmacología de sistemas y la medicina personalizada.
En el aprendizaje por refuerzo, generalmente hay dos personajes principales: un agente y un
entorno, el agente es el componente clave del RL que toma decisiones secuenciales, y el entorno es
el mundo en el que vive el agente. El artículo presenta el modelo de aprendizaje actual, que se
enfoca principalmente en el diseño de fármacos basado en objetivos específicos. Sin embargo, han
surgido nuevas áreas de interés como la farmacología de sistemas y la medicina personalizada, que
requieren optimizar múltiples objetivos, a veces conflictivos. Esto incluye consideraciones como la
farmacocinética, la permeación de la barrera hematoencefálica, las afinidades de un fármaco por
múltiples blancos y los perfiles de expresión génica inducidos por compuestos químicos.

La farmacología de sistemas y procesamientos de ML no ha sido completamente apreciada por la


industria farmacéutica y biotecnológica. Técnicamente, hay pocos datos etiquetados de alta calidad
disponibles para entrenar un modelo de ML generalizable que pueda predecir resultados fenotípicos
moleculares adecuados para el diseño de fármacos orientado a la farmacología de sistemas y la
medicina personalizada. Por lo tanto, el problema de fuera de distribución ya que incapacita la
función de recompensa, el éxito del RL en el diseño de fármacos orientado a la farmacología de
sistemas y la medicina personalizada debe superar obstáculos adicionales.

Para lograr un modelado exitoso en la farmacología de sistemas, es necesario integrar múltiples


datos ómicos heterogéneos, ruidosos y de alta dimensionalidad, lo cual representa un desafío en
investigación. Además de los nuevos desarrollos en RL, se requieren avances en otros campos para
aprovechar todo el potencial del RL en el descubrimiento de fármacos. (K Tan et al., 2022).

42
En el artículo sobre la determinación automática del estado de seguridad alimentaria: análisis de
datos de encuestas de hogares basado en el ML; por los autores Abdul Razzaq et al, publicado el 5
de mayo de 2021 plantea que la seguridad alimentaria de los hogares es un problema importante en
países en desarrollo como Pakistán; se tienen problemas sobre la disponibilidad y utilización de los
alimentos. No existe ningún método automatizado para la decisión del estado de seguridad
alimentaria; es por ello qué se utiliza el ML por su grado de rendimiento y su precisión. La
metodología empleada se basó principalmente en las zonas rurales de la provincia de Punjab, que es
un a provincia muy poblada en Pakistán; el propósito principal de la selección de Punjab fue debido
a su participación en la agricultura nacional en el PIB, que es del 51% en la economía nacional y la
producción de cultivos. El estudio se llevó a cabo mediante una técnica de muestreo estratificado en
varias fases para seleccionar zonas y 756 hogares agrícolas; esto se realizó en la primera fase. En la
segunda fase a través de la técnica de muestreo intencional estratificado se seleccionaron 12 zonas
de un total de 36, la tercera etapa se seleccionó 4 aldeas aleatoriamente y en la cuarta 12 casas de
cada aldea; lo cual sirve como la alimentación de los modelos de IA y ML.

En su metodología, Razzaq et al. proponen el uso de algoritmos de selección, como Naive Bayes,
máquinas de vectores de soporte, bosques aleatorios, regresión logística y redes neuronales, para
analizar los datos de las encuestas. Entre estos algoritmos, se seleccionó bosques aleatorios debido a
su simplicidad, flexibilidad y capacidad para la regresión, clasificación y predicción en el ML.

Como resultado se obtiene una aplicación móvil mediante algoritmos de ML para determinar de
manera automática el estado de la seguridad alimentaria; la aplicación propuesta es útil para apoyar
una alimentación sana, reducir la malnutrición y mejorar el estado general de salud y nutrición de la
población del país (Razaq et al., 2021).

Los métodos de IA en optimización también pueden llegar a clasificarse en mejoras asociadas a la


vida cotidiana de las personas, gracias a metodologías de mantenimientos y de mejora en procesos
de uso cotidiano, como lo presenta Marc Ribalta et al en su artículo publicado el 28 de octubre de
2022, sobre cómo pueden hacerse mejoras en el sistema de alcantarillado gracias al ML. En este
artículo, se estudian soluciones aplicadas al problema de predicción de cuatro factores en el
alcantarillado: defectos en las tuberías, sedimentación y eventos de fallo y obstrucción, se pretende
identificar las lagunas existentes en la literatura mediante un análisis bibliométrico basado en datos
extraídos de Scopus y Web of Science.

43
La metodología de análisis bibliométrico presentada por Ribalta se basa en estudios previos y
permite obtener conclusiones estadísticas en diferentes casos de estudio. Los resultados obtenidos
en este estudio ayudarán a identificar avances y brechas en la aplicación de modelos de ML en
sistemas de alcantarillado, lo que impulsará la competitividad en la creación de mejores modelos
basados en datos y acercará soluciones aplicables. El análisis bibliométrico revela deficiencias
actuales en el dominio, y a partir de los resultados obtenidos se pueden identificar las limitaciones
actuales y proponer mejoras para futuras investigaciones.

Los resultados muestran una tendencia creciente en los artículos publicados que estudian el dominio
y señalan lagunas de conocimiento relacionadas con el uso adecuado de los datos, la necesidad de
modelos capaces de generalización y la exploración de técnicas novedosas en el futuro. Ribalta
destaca cómo el registro histórico de la degradación de las tuberías de alcantarillado proporciona
información para que un modelo de ML pueda predecir futuras fallas. La mayoría de los estudios
utilizan informes de inspección históricos para determinar si una tubería requiere atención
inmediata. (Ribalta et al., 2022).

La optimización mediante ML en la industria y manufactura es un estudio que se plantea desde la


introducción de la IA como plataforma de apoyo en la mejora de procesos. Nahual Rai et al,
presentan en su tema de la industria 4.0 publicada el 14 de agosto de 2021, mediante ML, la
aparición de la Industria 4.0 y como ha traído consigo cambios significativos en la industria
manufacturera, donde el ML desempeña un papel crucial.

Las técnicas de ML combinadas con sensores y dispositivos inteligentes han impulsado el


desarrollo de fábricas inteligentes que recopilan datos de producción en tiempo real. Mediante el
procesamiento de estos datos, el ML puede generar conocimientos valiosos y mejorar la eficiencia
en la fabricación sin necesidad de realizar cambios significativos en los recursos. Además, las
capacidades predictivas del ML han abierto nuevas oportunidades para sistemas inteligentes que
apoyan la toma de decisiones en diversas tareas de fabricación, como inspección, mantenimiento,
mejora de la calidad, optimización de procesos, gestión de la cadena de suministro y programación
de tareas. Su objetivo es automatizar los procesos de fabricación para maximizar la eficiencia,
aumentar la sostenibilidad, gestionar la cadena de suministro e identificar las barreras del sistema
incluso antes de que ocurran, mediante la generación, optimización e implementación de grandes
volúmenes de datos. Con la aplicación de análisis avanzados a los datos industriales, los fabricantes

44
pueden obtener información para optimizar la productividad de los activos individuales y de la
operación de fabricación en su totalidad.

Uno de los ámbitos más impactantes de la IA y el ML en la industria manufacturera es la inspección


de piezas y el monitoreo de procesos basados en visión por computadora, El uso de sensores
económicos como cámaras RGB junto con algoritmos basados en ML permite una inspección
rápida de piezas, mientras que los enfoques basados en visión por computadora (imágenes y vídeo)
integrados con ML permiten el monitoreo de un producto a lo largo de todo el proceso de
producción. Además, un enfoque basado en visión por computadora también puede permitir un
monitoreo continuo de alta calidad del proceso. Donde se presenta además varios artículos con
ejemplos de métodos de ML en la industria, además de métodos como la detección de fallos, que
permiten él diagnóstico oportuno y preciso de fallos en los procesos de equipos de fabricación,
brindando una ventaja estratégica para las empresas manufactureras, e incluso presenta en su
artículo métodos para la optimización de procesos y mejora en cuanto al aumento de demandas en
la industria (Rai et al., 2021).

Cada vez hay una mayor conciencia de que los plásticos o polímeros sintéticos forman parte de
nuestra vida cotidiana en diversos niveles debido a su versatilidad y bajo costo. En los últimos 30
años, su consumo ha aumentado casi 20 veces en múltiples aplicaciones industriales. Una estrategia
para enfrentar esta alta demanda es el uso de la informática de polímeros, como lo exponen los
autores F. Cravero et al en su artículo publicado el 03 de febrero de 2022. La informática de
polímeros es una disciplina emergente que se ha beneficiado del fuerte desarrollo de la ciencia de
datos en la última década.

Los métodos de ML son útiles para inferir modelos QSPR (Relaciones Cuantitativas Estructura-
Propiedad). El QSPR es una de las metodologías más utilizadas para el modelado molecular de
polímeros. Una vez validados, estos modelos se aplican para predecir propiedades de nuevos
compuestos. Las principales ventajas de los modelos QSPR son la reducción de tiempo y costo al
permitir el diseño computacional previo a la síntesis y la predicción de propiedades mecánicas
relacionadas con el perfil industrial de los materiales poliméricos en función de sus unidades
estructurales repetitivas (SRU). Sin embargo, la estructura química de la SRU es solo uno de los
muchos factores que afectan la utilidad industrial de un polímero. Otros factores igualmente
relevantes son el peso molecular del polímero, la distribución del peso molecular y el método de
producción, que están relacionados con la polidispersidad inherente de este tipo de material. Por

45
esta razón, la caracterización computacional utilizada en la construcción de modelos QSPR para
predecir propiedades mecánicas debe considerar estos factores principales. El objetivo de este
documento es resaltar los avances recientes en la ciencia de datos para abordar la inclusión de
información de polidispersidad en el modelado QSPR de materiales poliméricos. Se explican dos
dimensiones de discusión: representación de datos y problemas algorítmicos.

En la primera dimensión, se explica cómo se pueden aplicar diferentes estrategias para incluir datos
de polidispersidad en los descriptores moleculares que caracterizan a los polímeros. Los dos
enfoques de representación de datos diseñados se denominan descriptores moleculares trivaluados y
multivaluados. En la segunda dimensión, se proponen algoritmos para manejar estas nuevas
representaciones de descriptores moleculares durante la construcción de los modelos QSPR. Por lo
tanto, se presenta una metodología comprensible e integral para abordar los desafíos que plantea la
polidispersidad en el modelado QSPR de las propiedades mecánicas de los polímeros. Como
resultado, se obtiene la predicción de propiedades objetivo de materiales desconocidos antes de la
síntesis, basándose en los descriptores moleculares ya conocidos. Actualmente, el QSPR se aplica
ampliamente en diversos estudios, como la creación de bases de datos multifuncionales basadas en
la intención del diseño y la predicción de propiedades ópticas importantes en materiales orgánicos.
(Cravero F et al., 2022)

Durante las últimas dos décadas, la investigación sobre microbiomas ha sido fundamental para
comprender la relación entre la microbiota y la salud humana. La microbiota, que incluye bacterias,
virus, hongos, arqueas y protozoos, coloniza diversas áreas del cuerpo humano y tiene un impacto
significativo en la salud y el metabolismo. Los estudios publicados diariamente han revelado la
conexión entre un desequilibrio en el microbioma y diversas enfermedades. En su artículo
publicado el 30 de enero de 2021, Laura McCoubrey et al describen cómo el ML se utiliza en el
desarrollo de terapias dirigidas a la microbiota. El ML, una rama de la IA, ofrece potentes técnicas
para el análisis de grandes volúmenes de datos y la realización de predicciones más allá de las
capacidades humanas. Esta revisión se centra en la aplicación del ML para el desarrollo de terapias
enfocadas en la microbiota.

Con la secuenciación genómica y el mapeo metabolómico, los datos masivos se han convertido en
una realidad en la investigación sobre la microbiota desde principios de la década de 2000. El
impacto del metabolismo de la microbiota en los medicamentos ha surgido como un tema relevante
que puede transformar el modelado farmacocinético. Con más de 10,162 datos disponibles

46
actualmente, es crucial utilizar herramientas sistemáticas, precisas e imparciales para el análisis. El
ML ofrece una forma accesible de interpretar los metadatos y utilizarlos para resolver problemas
(McCoubrey et al., 2021).

3.1.3. Educación
En la educación, la IA se utiliza para optimizar la enseñanza y mejorar el aprendizaje de los
estudiantes mediante el uso de herramientas tecnológicas. Esto permite personalizar la educación,
adaptándola a las necesidades individuales de cada estudiante y proporcionando retroalimentación
instantánea. Además, el ML permite analizar grandes cantidades de datos educativos para
identificar patrones y tendencias que ayuden a mejorar los métodos de enseñanza.

En el ámbito de la investigación, la IA y el ML se utilizan para analizar y procesar grandes


volúmenes de datos, lo que facilita la identificación de nuevas tendencias, la realización de
predicciones y la generación de conocimientos. Estas tecnologías ayudan a acelerar el
descubrimiento científico, mejorando la eficiencia en la búsqueda y análisis de información
relevante en diversas áreas de investigación.

Hoy en día la educación junto con la IA está tomando nuevos rumbos de los cuales ha permitido
que los estudiantes se formen de una manera diferente como lo expone Mark Tintero en su artículo
publicado el 25 de noviembre del 2019, dónde emplean la herramienta STEAM para formar
nuevos ingenieros con pensamientos creativos e innovadores combinando las asignaturas
tradicionales STEM; science, technology, engineering and mathematics con las artes; se plantea un
marco multidisciplinario unido a prácticas pedagógicas de las Artes y el Diseño que centra el
aprendizaje en las ciencias humanas, las ciencias naturales, la artesanía y el pensamiento de diseño
para proporcionar una formación integral en ingeniería basada en competencias técnicas. La
metodología STEM tiene como objetivo que los estudiantes adquieran habilidades de resolución de
problemas que abarquen la brecha entre disciplinas basadas en el diseño, como la arquitectura, y la
ciencia de la ingeniería fundamentada en teorías académicas. La IA tampoco resulta indiferente en
el ámbito educativo, habiendo encontrado en las herramientas tecnológicas vanguardistas una
palanca para optimizar el desempeño de la docencia y mejorar el aprendizaje del alumnado; es por
ello que la metodología STEM va de la mano con la IA para formar mejores profesionales (Tintero
M., 2019).

47
En la ingeniería de Productos Químicos (CPE) se enfrentan grandes desafíos: uno de estos es la
complejidad de la relación entre propiedades, estructura y la composición de materiales y la
creciente necesidad de descubrir y desarrollar rápidamente nuevas moléculas y materiales según los
estudios y su demanda de resultados. Las herramientas que brinda la IA a partir de ML como lo son:
aprendizaje supervisado, aprendizaje no supervisado y semi supervisado entre otros han permitido
abordar problemas complejos en diversas áreas, como la visión artificial y el procesamiento del
lenguaje natural. Esto lo exponen los autores Cindy T. et al, donde plantean en su artículo una
revisión actualizada del estado del arte en la implementación de técnicas de ML en diferentes tipos
de problemas de CPE con un enfoque particular en cuatro dominios específicos a saber, el diseño y
descubrimiento de nuevas moléculas y materiales, el modelado de procesos, la predicción de
procesos químicos reacciones/retrosíntesis y el apoyo al análisis sensorial. Las metodologías
planteadas en la revisión de este artículo brindan lineamientos generales para la selección de una
técnica de ML apropiada dadas las características de cada problema y una revisión de varios temas
clave asociados con el desarrollo de ML en enfoques de modelado como: Cosméticos utilizando el
método (ANN), moléculas utilizando el método (RNN), polímeros (ANN), líquidos iónicos (ANN)
entre otros. De manera más general, el estado del arte destaca la gran diversidad en términos de las
características de los datos entre los diferentes dominios dados. Esto proporcionó diversos enfoques
alternativos de ML para los distintos tipos de problemas y características de datos (Trin et al.,
2021).

Los autores Pablo R. et al exponen en su artículo como una red neuronal recurrente aprende a
contar. Dónde las arquitecturas de procesamiento distribuido paralelo (PDP) demuestran una
alternativa potencialmente radical para la sustitución de las teorías convencionales de
procesamiento del lenguaje las cuales se basan en modelos computacionales en serie. Este artículo,
tiene como objetivo principal emplear técnicas de entrenamiento de retropropagación estándar para
una red neuronal recurrente (RNN). Parte de las metodologías que emplean son métodos con un
sistema dinámico de tiempo discreto. En cada paso de tiempo hay un vector de valores de entrada,
un vector de valores de unidad de copia y una entrada de sesgo que alimentan un conjunto de
funciones de activación sigmoideas que actualizan el vector de valores de unidad ocultos. Si los
parámetros los datos de cada red neuronal son deshabilitados (Datos congelados) y los valores de
entrada se mantienen constantes durante varios pasos de tiempo, entonces los valores ocultos de
activación de la unidad son las variables de estado en un diagrama de espacio de fases. El análisis
del artículo demuestra una aplicación de la teoría de sistemas dinámicos al estudio de RNN que
ayuda a identificar propiedades de las trayectorias que pueden ser especialmente relevantes para la

48
capacidad de aprendizaje y la representación de modelos conexionistas de procesamiento del
lenguaje, los resultados demuestran cómo una RNN puede implementar el tipo de soluciones
utilizadas en el análisis del reconocedor dinámico formal. Específicamente, se muestra que un RNN
que realiza una tarea de predicción puede aprender a procesar un lenguaje libre de contexto
determinista simple (Rodríguez et al.,2010).

Akshaya K. et al definen en su artículo, publicado el 21 de diciembre del 2021 como el ML es


aplicado en las ciencias químicas. Donde se hace referencia a los métodos de las áreas de visión
artificial, reconocimiento de voz, lenguaje natural (PNL), etc. Existe cierto interés por parte de
científicos y biólogos de aplicar algoritmos en las materias de ciencia naturales ya que IA a partir
del ML permite ciertas facilidades que en métodos convencionales no se tienen. El principal
objetivo que este artículo establece es plantear conceptualmente varias metodologías de ML como:
aprendizaje profundo, redes neuronales, aprendizaje supervisado y no supervisado; puesto que estas
dependen de los temas de estudio que se deseen investigar. Este artículo busca mencionar la
relevancia de las aplicaciones que se pueden obtener en las diferentes áreas de las ciencias químicas
como: descubrimiento y diseño de materiales, diseño molecular inverso, simulaciones de dinámica
molecular entre otras (Karthikeyan & Priyakumar, 2021)
CAPÍTULO 4. EJEMPLO DE APLICACIÓN
El presente capítulo tiene como objetivo principal poder ilustrar a través de un ejemplo básico y
sencillo, el uso del aprendizaje automático a partir de bases de datos, para tareas de predicción y
clasificación utilizando librerías de software de uso libre.

4.1. Presentación del método


Las bases de datos pueden ser encontradas a partir de librerías y revistas electrónicas. Para la
elaboración de los ejemplos de ML en la ingeniería química, se utilizan variables asociadas a las
características de diferentes sustancias químicas, que, con el procesamiento adecuado, los modelos
de IA pueden encontrar correlaciones que permiten hacer predicciones, ya sea de coeficientes
numéricos o variables cualitativas. Para los ejemplos se establecen condiciones que deben cumplir
las bases de datos, ya que principalmente deben contar con diferentes columnas y filas numéricas
que puedan ayudar a la clasificación, y que todos los datos que sean variables dependientes e
independientes estén presentes, siendo necesario adecuar las bases a partir de métodos de
depuración y eliminación de datos faltantes, datos que puedan representar errores y datos que no
sean aplicables.

49
4.1.1. Clasificación de riesgos: Rombo NFPA 704
La NFPA (National Fire Protection Association) es una entidad internacional voluntaria creada
para promover la protección y prevención contra el fuego. Esta entidad establece un sistema de
identificación de riesgos para que en un eventual incendio o emergencia (o para análisis de
prevención, antes de que suceda una emergencia), las personas afectadas puedan reconocer los
riesgos de los materiales y su nivel de peligrosidad respecto del fuego y diferentes factores. La
norma establecida representa gráficamente a través de un rombo seccionado en cuatro partes de
diferentes colores, los grados de peligrosidad de la sustancia a clasificar. A continuación, en la
figura 4.1, se muestra el rombo y sus diferentes clasificaciones:

.
Figura 4.1. Diamante de peligro NFPA 704. Adaptado de Periodni [2018].
El sistema consiste en asignar colores y números, y dar una clasificación a un producto, manejando
una escala del 0 al 4, dependiendo del grado de su peligrosidad. Cada uno de estos peligros está
asociado a un color específico. El rombo de color azul está asociado al peligro de salud, el de color
rojo se asocia con el peligro de inflamabilidad, el de color amarillo con el peligro de inestabilidad.
A estas tres divisiones se les asigna un número de 0 (sin peligro) a 4 (peligro máximo). En la
sección blanca puede haber indicaciones especiales para algunos materiales, indicando que son
oxidantes, ácidos, alcalinos, corrosivos, reactivos con agua o radiactivos.

 Riesgos a la salud
Se refiere a la capacidad de un material de causar daño a la salud a través del contacto o de las
diferentes vías de entrada al cuerpo, como son la inhalación, ingestión y contacto dérmico
(Laboratorio Químico, 2023). En la tabla 4.1. se muestran el grado de peligro según riesgos a la
salud:

Tabla 4.1. Grado de peligro según los riesgos a la salud.


Grado de peligro Concepto

50
4 Mortal.
3 Muy peligroso.
2 Peligroso.
1 Poco peligroso.
0 Sin riesgo.
Fuente: Elaboración propia. Adaptado de Laboratorio Químico [2023].

 Riesgo de inflamabilidad
La inflamabilidad se refiere al grado de susceptibilidad de los materiales a quemarse. Algunos
materiales pueden arder bajo condiciones específicas, pero no lo podrán hacer bajo otras
(Laboratorio Químico, 2023). Esto se demuestra en los valores de la tabla 4.2 que contiene los
riesgos según su inflamabilidad:
Tabla 4.2. Riesgos de incendio según su inflamabilidad.
Riesgo de incendio Concepto
4 Debajo de 25 °C.
3 Debajo de 37 °C.
2 Debajo de 93 °C.
1 Sobre 93 °C.
0 No se inflama.
Fuente: Elaboración propia. Adaptado de Laboratorio Químico [2023].
 Riesgo de inestabilidad
Se refiere a la susceptibilidad intrínseca de los materiales a liberar energía. Aplica a todos aquellos
materiales capaces de liberar energía rápidamente por ellos mismos a través de una auto reacción o
polimerización (Laboratorio Químico, 2023). Los valores de riesgo de incendio según su
inestabilidad se plantean en la tabla 4.3:

Tabla 4.3. Riesgo de incendio según la inestabilidad.


Riesgo de incendio Concepto
4 Puede explotar con facilidad.
3 Puede explotar en caso de golpe o
calentamiento.
2 Inestable en caso de cambio químico
violento.
1 Inestable si se calienta
0 Estable

51
Fuente: Elaboración propia. Adaptado de Laboratorio Químico [2023].

 Riesgos específicos
Los peligros especiales se refieren a la reactividad con el agua, propiedades oxidantes de los
materiales que causan problemas especiales, y sustancias alcalinas (Laboratorio Químico, 2023). A
continuación, la tabla 4.4 contiene los valores de los riesgos específicos según su peligro especial:

Tabla 4.4. Riesgos específicos según su peligro especial.


Riesgo específico Concepto
OX Materiales que tienen propiedades oxidantes
W Materiales que reaccionan violentamente con el agua o
explosivamente
SA Materiales gaseosos que son asfixiantes simples
(corresponden al nitrógeno, helio, neón, argón, kriptón y
xenón)
Fuente: Elaboración propia. Adaptado de Laboratorio Químico [2023].

4.1.2. Ejemplo de clasificación


Los modelos de clasificación permiten representar las correlaciones de datos y variables implícitas
en bases de datos, las cuales sirven para poder identificar y predecir directamente el
comportamiento o alguna característica de una sustancia o proceso. El presente ejemplo consiste en
la extracción de una base de datos de los recursos disponibles en la plataforma virtual de Knovel, a
la cual se ingresa gracias a los recursos virtuales de la biblioteca “Florentino Idoate S.J.”; Knovel
integra información técnica con herramientas de búsqueda analítica que mejoran la productividad y
proporcionan funciones muy útiles como: utilización de hojas de cálculo de ecuaciones interactivas
y tablas infinitas de datos, teniendo una gran colección de libros electrónicos de texto completo,
incluyendo manuales de referencia y bases de datos (ELSEVIER , 2023 ).

Una vez identificada la herramienta de base de datos, se interactúa con la interfaz virtual para
buscar tablas adecuadas que se utilizarán en los modelos de ML. Se seleccionan bases de datos con
suficiente extensión y columnas para realizar correlaciones, descartando aquellas con menos de
1000 datos y menos de 3 columnas. Durante la búsqueda, se identificaron temas relevantes como las

52
tablas críticas de Knovel (2ª edición) (Knovel, 2023) que contienen datos sobre propiedades
termodinámicas de sustancias inorgánicas, entalpías y entropías de formación de compuestos
orgánicos e inorgánicos en fases condensadas y constantes físicas y termodinámica de las
transiciones de fase. Estas bases de datos se consideraron aplicables a la ingeniería química y fueron
seleccionadas para futuros estudios (datos corregidos).

Para el caso de aplicación con la metodología de ML en la ingeniería química, se opta por la tabla
de disolventes de Knovel: una base datos de propiedades que cuenta con los requisitos mencionados
anteriormente en respecto a los factores de descarte de las tablas presentes en la plataforma de
Knovel.

Los requisitos de cantidades o volúmenes de datos, no es el único, puesto que las columnas deben
ser las adecuadas y contar con valores asociables a medidas cuantitativas para realizar las
correlaciones, siendo necesario que luego de identificar las tablas sean trabajadas para elaborar un
formato acorde y adecuado para la incorporación a la interfaz del ML. Esto puede verse paso a paso
con pequeños detalles sobre la depuración y formalización del documento en el flujograma de la
figura 4.2:

53
Figura 4.2 Flujograma del desarrollo del ejemplo de clasificación. Fuente elaboración propia .

54
Para poder identificar los resultados y la notoriedad de la eficiencia del método, se tiene el valor de
la certeza a partir de métodos de R 2, análisis comparativos y regresiones lineales, con más de 1
variable. En términos generales, el procedimiento descrito en el flujograma puede condensarse de la
siguiente forma:

 Selección de categorías, o variables para llevar a cabo la clasificación. En este caso, el índice de
inflamabilidad. Es una variable discreta, ya que solo puede tomar una seria limitada de valores.

 Selección de caracterísiticas, o variables a partir de las cuales se hace la clasificación. Aunque


la tabla original contenía varias características, se seleccionaron finalmente masa molar,
temperatura de ignición y flash point, ya que para estas variables, todas las sustancias en la
tabla contenían el valor respectivo. Sustancias para la cual faltara un dato fueron descartadas.
Por esta razón, las demás columnas de la tabla original no fueron utilizadas para la
clasificación.

 Se somete el conjunto de datos al procedimiento:


o Estandarizar datos.
o Separar datos en conjunto de entrenamiento (conjunto de datos para construir el modelo) y
conjunto de prueba (una vez creado el modelo se evalúan las tres variables de cada dato en el
conjunto de prueba para predecir su categoría – el índice de inflamabilidad – y contrastar con el
dato real).
 Evaluación de la precisión.
 Repetición del proceso con diferentes valores para k.
 Comparación de la precisión para cada valor de k para decidir cuál es el mejor.

Los resultados de estas pruebas se muestran a continuación, en la Figura 4.3:

55
Figura 4.3. Gráfico de K vecino ajustado. Adaptado de Jupyter notebook [ 2023].

56
CAPÍTULO 5. CONCLUSIONES Y RECOMENDACIONES
5.1. Conclusiones
A la luz de los hallazgos del trabajo, puede concluirse que la IA y el ML en particular son
herramientas que ofrecen una serie de beneficios significativos en la optimización de
procedimientos. Estas tecnologías permiten mejorar la eficiencia, reducir errores, optimizar el uso
de recursos, generar predicciones precisas e identificar oportunidades de mejora en múltiples tipos
de procesos. En el campo de la ingeniería química, se ha comprobado que el ML puede ser utilizado
para predecir propiedades y variables clave en diversos procesos, incluyendo propiedades
mecánicas, químicas, fisicoquímicas y termodinámicas. Al utilizar algoritmos y modelos de
aprendizaje automático, es posible aprovechar grandes conjuntos de datos y obtener resultados
precisos y rápidos en comparación con métodos convencionales de análisis. Esto abre nuevas
posibilidades para mejorar los procesos y tomar decisiones más informadas en la industria química.

El método de k vecinos más cercanos se puede aplicar de forma iterativa para identificar el mejor
modelo de clasificación para una serie de datos. Un valor de k demasiado pequeño puede clasificar
erróneamente los puntos analizados, mientras que un valor demasiado grande puede sobre
especificar el problema y agrupar datos que en realidad no guardan similitud importante entre sí.
Para el ejemplo planteado, un valor de k igual a 7 mostró el mejor valor de evaluación de precisión
del modelo. El modelo construido clasificó adecuadamente las muestras y predijo satisfactoriamente
el índice de inflamabilidad en el conjunto de prueba.

En el caso de la educación, se identificó que las aplicaciones de IA y ML están en aumento debido a


la necesidad de innovar y buscar nuevos conocimientos que permitan desarrollar de manera más
efectiva las habilidades de los estudiantes. La carrera universitaria de ingeniería química puede
aprovechar estas tecnologías para enriquecer sus conocimientos. Es importante tener en cuenta que
la inteligencia artificial no debe verse como un sustituto de los educadores, sino como una
herramienta poderosa que complementa y enriquece la experiencia de aprendizaje junto con los
métodos convencionales de educación, permitiendo que cada estudiante despierte el enfoque
investigativo para poder replicar las metodologías de la inteligencia artificial en la vida cotidiana y
procedimientos tradicionales.

57
5.2. Recomendaciones
Se recomienda llevar a cabo la búsqueda y la evaluación de otras herramientas o ramas de la IA
y el ML, como por ejemplo el procesamiento de lenguaje natural, árboles de decisión, máquinas
de soporte vectorial, etc. a fin de identificar las potencialidades de estas técnicas en la
resolución de problemas de la ingeniería química.

Se recomienda para trabajos posteriores darle continuidad a este tema, explorando el potencial
de aplicación de la técnica usada en el ejemplo de este trabajo, para la resolución de otros tipos
de problemas, explorando más profundamente las series de datos contenidas en fuentes como
las consultadas para la realización de este.

Se recomienda profundizar la revisión bibliográfica de la aplicación de inteligencia artificial y


aprendizaje automático en la región de El Salvador y Latinoamérica, así como la comparación
de problemáticas emergentes en dichas regiones con los resultados de este trabajo para
identificar potencialidades de la inteligencia artificial y el aprendizaje automático para el
análisis y resolución de problemáticas características de la región latinoamericana.

58
REFERENCIAS
ACSPublications (5 de julio de 2022). Mejora de la precisión de los métodos compuestos: un
método G4MP2 con precisión similar a G4 e implicaciones para el aprendizaje automático.
Obtenido de [Link]

ACSPublications. (15 de Julio de 2014). Parámetros del modelo de interacción de dos líquidos no
aleatorios generalizados (NRTL) para predecir el comportamiento de equilibrio líquido-líquido.
Obtenido de [Link]

Aghabozorgi, S. (2018). COGNITIVE [Link]. Obtenido de jupyter notebook:


ttp://localhost:8888/notebooks/Downloads/Ejemplo_176.ipynb

Alamoudi, M. (6 de diciembre de 2022). Modelado de los niveles de calidad del dióxido de azufre
(SO2) de la ciudad de Jeddah utilizando enfoques de aprendizaje automático con factores
meteorológicos y químicos. Obtenido de ProQuest One Academic: Procesos
[Link]

Alfaro Parada, M. E. (diciembre 2011). Utilización de metodologías de IAy sus aplicaciones en El


Salvador. Obtenido de [Link]
%20de%20metodologias%20de%20Inteligencia%20Artificial%20y%20sus%20aplicaciones%20en
%20El%[Link]

Alvarado, R., & Llenera, J. (1 de octubre de 2021). Revisión de la literatura sobre el uso de
Inteligencia Artificial. Obtenido de Universidad Politécnica Salesiana:
[Link]

Alvarado, M. (20 de abril de 2015). Una mirada a la Inteligencia Artificial. Obtenido de


[Link]

Álvarez Corredera, P. (10 de enero de 2023). Evolución de la IAy Alan Turing. Obtenido de
[Link]

ARIMETRICS. (2022). ¿Qué es Bigdata? Obtenido de [Link]


digital/big-data

59
Boniolo, F et al (02 de junio de 2021). IA en el descubrimiento temprano de fármacos que permite
la medicina de precisión. Obtenido de Taylor&Francis en línea:
[Link]

Campbell, M., & Hoane, J. (2002). Inteligencia Artificial. Obtenido de


[Link]
token=49AC4A65C119C0FCFD729DE1EBC525B2757AF8EB9E818A328A6918D474D102C6E5
A4E2041D8379CC4F09556AA460D8F6&originRegion=us-east-
1&originCreation=20230520034912

Chadaga, K., & Prabhu, S. (03 de junio de 2021). Luchando contra COVID-19 utilizando el
aprendizaje automático: una revisión. Obtenido de
[Link]

[Link]. (8 de marzo de 2021). Centro de Innovación Industrial en Inteligencia Artificial. Obtenido


de Aprendizaje Supervisado:[Link]
1#:~:text=El%20aprendizaje%20supervisado%20se%20puede,clasificaci%C3%B3n%20es
%20binaria%20o%20multiclase

Corvalán, J. (2018). Inteligencia artificial: retos, desafíos y oportunidades - Prometea: la primera


IA de Latinoamérica al servicio de la Justicia. Obtenido de
[Link]

Cravero, F et al (03 de febrero de 2022). ¿Cómo se puede integrar la información de


polidispersidad en el modelado QSPR de propiedades mecánicas? Obtenido de Taylor&Francis en
línea: [Link]

da Silva, D. (28 de abril de 2021). Inteligencia Artificial: la guía para entender su historia y
evolución. Obtenido de:
[Link]
%C3%B3n%20que%20realizan%20determinadas,para%20clasificar%20la%20inteligencia
%20artificial.

60
Diaz, K. (12 de Julio de 2020). La aplicación de la IA en salud. Obtenido de
[Link]
%20demostrado%20ser,wearables%20y%20otros%20dispositivos%20electr%C3%B3nicos.

elternativa. (2023). Breve historia de la inteligencia artificial: origen, datos y auge de la IA.
Obtenido de [Link]

Escabia, G. et al (01 de junio de 2022). Acoplamiento oxidativo de azufre del desarrollo del
proceso de metano y su modelado mediante aprendizaje automático. Obtenido de Biblioteca en
línea de AIChe: [Link]

ELSEVIER (2023) Knovel Ofrece información de ingeniería fiables, accesibles y relevantes.


Obtenido de [Link]

Farrán Morales, M. Á., & León Cabanillas, S. (25 de junio de 2019). Machine learning aplicado a
la química. Obtenido de: [Link]

García, J. M. (17 de junio de 2019). IA como clave para la preservación del medio ambiente y de la
industria forestal. Obtenido de
[Link]
la-preservacion-del-medio-ambiente-y-de-la-industria-forestal/

García Peña, V. (2020). La IA en la educación. Obtenido de


[Link]

González, L. (01 de marzo de 2019). Obtenido de [Link]


regresion-teoria-machine-learning/

González, L. (8 de junio de 2023). AprendeIA. Obtenido de Vectores de Soporte Regresión –


Teoría: [Link]
learning/

61
Gracheva, E. et al (29 de noviembre de 2021). Predicción del coeficiente de expansión térmica
lineal de los homopolímeros amorfos a partir de la estructura química. Obtenido de
Taylor&Francis En línea: [Link]
Hu, K. et al (07 de febrero de 2023). Estimación de la resistencia a la tracción de hojas de papel
hechas de madera reciclada y fibras no madereras mediante aprendizaje automático. Obtenido de
Taylor&Francis En línea: [Link]

IBM. (2018) ¿Qué es el aprendizaje supervisado? Obtenido de


[Link]

IBM. (2018). Algoritmo de vecinos más cercanos K. Obtenido de [Link]


Jain, P et al (28 de julio de 2020). Aplicaciones de aprendizaje automático en la ciencia y la gestión
de incendios forestales. Obtenido de Publicaciones científicas canadienses:
[Link]

Knovel. (2023). Disolventes de Knovel: una base de datos de propiedades. Obtenido de


[Link]

Jiménez Luna, J. et al (02 de abril de 2021). IA en el descubrimiento de fármacos: avances


recientes y perspectivas futuras. Obtenido de Taylor&Francis En línea:
[Link]

Laboratorio Químico (2023). ¿Qué es el Rombo NFPA 704? Obtenido de


[Link]
auxilios/[Link]

Lacoste, J. (29 de enero de 2020). Impacto social de la IA / Inteligencia Artificial. Obtenido de


[Link]

Li, M. e. (07 de febrero de 2023). Estimación de la resistencia a la tracción de hojas de papel


fabricadas con madera reciclada y fibras no madereras mediante aprendizaje automático.
Obtenido de Taylor&Francis En línea:
[Link]

62
López, S et al (26 de mayo de 2021). Equilibrio termodinámico vapor-líquido en mezclas de agua y
nafta. Obtenido de ProQuest: Procesos
[Link]
Mazur, H. et al (16 de febrero de 2023). Investigaciones sobre el uso del aprendizaje automático
para predecir el diseño de formas de dosificación de medicamentos para obtener los perfiles de
liberación deseados para medicamentos orales impresos en 3D. Obtenido de Taylor&Francis En
línea: [Link]

McCarthy, C (15 de abril de 2014). Sinopsis histórica de la IA. Obtenido de


[Link]

McClelland, J., & Rumelhart, D (1986). LA PERSPECTIVA DEL PPD. Obtenido de


[Link]

McCoubrey, L et al (30 de enero de 2021). Aprovechar el aprendizaje automático para el


desarrollo de terapias de microbiomas. Obtenido de Taylor&Francis En línea:
[Link]

Medigraphic (2021) Investigación en Educación Médica. Obtenido de


[Link]

Melnikov, A et al (15 de febrero de 2023) Aprendizaje automático cuántico: de la física a la


ingeniería de software. Obtenido de Taylor&Francis En línea:
[Link]

Minamoto, S et al (13 de octubre de 2022) Predicción del diagrama de transformación por


enfriamiento continuo para zonas afectadas por soldadura mediante el uso de aprendizaje
automático. Obtenido de Taylor&Francis En línea:
[Link]

NETZSCH (2022). Deslaminación (Tiempo hasta la Deslaminación). Obtenido de


[Link]
la-deslaminacion

63
Pascual, J. (2004). La barrera hematoencefálica: desarrollo de una estructura que permite la
heterogeneidad funcional del sistema nervioso central. Obtenido de
[Link]
Pierre, G. (2015) APLICACIÓN DEL APRENDIZAJE PROFUNDO (“DEEP LEARNING”) AL
PROCESAMIENTO DE SEÑALES DIGITALES. Obtenido de
[Link]

Ponce Gallegos, J., & Torres Soto, A. (2014). IA. México, D.F: Libros de Texto abiertos LATIn.

Pruksawan, S. et al (21 de octubre de 2019) Predicción y optimización de la fuerza adhesiva del


epoxi a partir de un pequeño conjunto de datos a través del aprendizaje activo. Obtenido de
Taylor&Francis En línea: [Link]

Rai, R. et al (14 de agosto de 2021) Aprendizaje automático en aplicaciones de fabricación e


industria 4.0. Obtenido de Taylor&Francis en línea:
[Link]

Razaq, A. et al (05 de mayo de 2021) Determinación automática del estado de seguridad


alimentaria: análisis basado en aprendizaje automático de datos de encuestas de hogares.
Obtenido de Taylor&Francis en línea:
[Link]

Ribalta, M. et al (28 de octubre de 2022) Soluciones de aprendizaje automático en sistemas de


alcantarillado: un análisis bibliométrico. Obtenido de Taylor&Francis en línea:
[Link]

Rodríguez, P. et al (01 de julio de 2010). Una red neuronal recurrente que aprende a contar.
Obtenido de Taylor&Francis en línea:
[Link]

Rouhiainen, L. (2018). Inteligencia Artificial. Madrid, España: Editorial Planeta, S.A.


SALESFORCE. (2020). Cloud Computing: Aplicaciones en un solo lugar. Obtenido de
[Link]

64
SALESFORCE (22 de junio de 2017). Inteligencia Artificial: ¿Qué es? - Blog de Salesforce.
Obtenido de [Link]
Sanggil, P. et al (26 de abril de 2022). Aplicaciones de aprendizaje automático para reacciones
químicas. Obtenido de Biblioteca en línea Wiley:
[Link]

ScienceDirect (2023) Ciencias Físicas e Ingeniería. Obtenido de [Link]


ref=pdf_download&fr=RR-11&rr=7d3e0926ffd7223f

Sol, Z et al (30 de marzo de 2022). Cálculo y diseño acelerado por aprendizaje automático de
electrocatalizadores para la reducción de CO2. Obtenido de Biblioteca en línea Wiley:
[Link]

Talebjedi, B. et al (22 de octubre de 2021) Simulación energética y análisis de variables del


proceso de refinación en una planta de celulosa termomecánica utilizando un enfoque de
aprendizaje automático. Obtenido de Taylor&Francis En línea:
[Link]

Tanoli, Z. et al (12 de febrero de 2021). Inteligencia artificial, aprendizaje automático y


reutilización de fármacos contra el cáncer. Obtenido de Taylor&Francis En línea:
[Link]

Tapias García, H. (2019). Ingeniería química: escenario futuro y dos nuevos paradigmas. Obtenido
de: [Link]
%[Link]?sequence=1

The royal society (2017). Aprendizaje automático: el poder y la promesa de computadoras que
aprenden. Obtenido de: [Link]
publications/[Link]

Tintero, M. et al (25 de noviembre de 2019). STEAM: sin aire caliente: estrategia para formar
ingenieros creativos. Obtenido de Taylor&Francis en línea:
[Link]

65
Trin, C. et al (20 de agosto de 2021). Aprendizaje automático en ingeniería de productos químicos:
el estado del arte y una guía para principiantes. Obtenido de ProQuest One Academic: MDPI
Procesos: [Link]

TodoenPolímeros (junio de 2015). PROCESOS DE EXTRUSIÓN. Obtenido de


[Link]

Universidad Europea. (07 de Julio de 2022). Aprendizaje supervisado y no supervisado. Obtenido


de [Link]
%20principal%20diferencia%20entre%20el,sin%20etiquetar%20o%20sin%20procesar.

Vejarano, R. et al (14 de diciembre de 2017). Evaluación de contaminantes biológicos en alimentos


mediante imágenes hiperespectrales: una revisión. Obtenido de Taylor&Francis En línea:
[Link]

Wang, Y. et al (08 de abril de 2022). Aplicación del aprendizaje de redes neuronales profundas en
el diseño de materiales compuestos. Obtenido de Taylor&Francis En línea:
[Link]

Xue, W. et al (12 de julio de 2022). Estimaciones horarias de O3 en superficie continua mediante


la integración de Transporte químico y modelos de aprendizaje automático en el Región de
Beijing-Tianjin-Hebei. Obtenido de MDPI Medio Ambiente y Salud Pública:
[Link]

Yajing, S., & Hu, W. (29 de octubre de 2021). Nuevo marco de aprendizaje automático para la
predicción de la conductividad térmica mediante un conjunto integrado de convolución de gráficos
de cristal. Obtenido de Biblioteca en línea Wiley:
[Link]

Yan, L. (19 de junio de 2020). Predicción de la tasa de corrosión y los factores asociados, de
aceros de baja aleación en condiciones de atmósfera Marina, mediante el uso del aprendizaje
automático. Obtenido de Taylor&Francis En línea:
[Link]

66
GLOSARIO
1. Big Data: Es un término amplio para conjuntos de datos tan grandes o complejos que las
aplicaciones tradicionales de procesamiento de datos no son suficientes. Engloba el análisis, la
captura, la autentificación de datos, búsqueda, intercambio, almacenamiento, transferencia,
visualización, consulta y privacidad de la información (ARIMETRICS, 2022).

2. Barrera hematoencefálica: Puede definirse como una propiedad funcional de los vasos
sanguíneos del SNC, por la que se impide el intercambio libre de iones y moléculas orgánicas
entre el plasma sanguíneo y el tejido nervios (Pascual, 2004).

3. Cloud Computing: La definición de cloud computing es ofrecer servicios a través de la


conectividad y gran escala de Internet. La computación en la nube democratiza el acceso a
recursos de software de nivel internacional, pues es una aplicación de software que atiende a
diversos clientes. La multiplicación es lo que diferencia a la computación en la nube de la
simple tercerización y de modelos de proveedores de servicios de aplicaciones más antiguos
(SALESFORCE, 2020).

4. Delaminación: La Delaminación se refiere a la separación de capas entre sí, por ejemplo, de una
resina de un laminado o de fibras de una resina. Estos procesos provocan defectos en circuitos
impresos o tarjetas electrónicas (NETZSCH, 2022).

5. DXplain: Es un sistema de apoyo a la toma de decisiones médicas. En su modo de referencia o


análisis de casos, DXplain acepta un conjunto de hallazgos clínicos (signos, síntomas, datos de
laboratorio) para producir una lista clasificada de diagnósticos que podrían explicar (o estar
asociados con) las manifestaciones clínicas (Medigraphic, 2021).

6. Extrusión: La extrusión es un proceso usado para crear objetos con un perfil de sección
transversal fija en donde un material es empujado o jalado a través de un dado con la sección
transversal deseada. Las dos ventajas principales de este proceso sobre otros procesos de
fabricación son su capacidad de crear secciones transversales muy complejas y trabajar con
materiales frágiles (quebradizos) ya que el material sólo se somete a esfuerzos de compresión y
de fricción (TodoenPolímeros, 2015).

69
7. G4MP2: Método compuesto de química cuántica confiable y preciso para el cálculo de energías
moleculares utilizando una aproximación basada en la teoría de perturbaciones de segundo
orden para reducir los costos computacionales (ACSPublications, 2022).

8. KNN: El algoritmo de k vecinos más cercanos, también conocido como KNN o k NN, es un
clasificador de aprendizaje supervisado no paramétrico, que utiliza la proximidad para hacer
clasificaciones o predicciones sobre la agrupación de un punto de datos individual. Si bien se
puede usar para problemas de regresión o clasificación, generalmente se usa como un algoritmo
de clasificación, partiendo de la suposición de que se pueden encontrar puntos similares cerca
uno del otro (IBM, 2018).

9. NRTL: Modelo de dos líquidos no aleatorios (NRTL), es un modelo de coeficiente de actividad


que se usa ampliamente en los cálculos de equilibrio de fase (ACSPublications, 2014).

70
ANEXOS

71
ANEXO A
Clasificación de temas revisión bibliográfica

A-1
Anexo A. Clasificación de temas revisión bibliográfica
A.1. Contenido de temas
A continuación, en la tabla A.1 se detallan los temas y el objetivo de cada uno:
Tabla A.1. Clasificación de temas y su respectivo objetivo.
TEMAS No
Aprendizaje automático cuántico: de la física a la ingeniería de software 1
Estimación de la resistencia a la tracción de hojas de papel fabricadas con madera reciclada y
fibras que son de madera mediante aprendizaje automático. 2
STEAM sin aire caliente: estrategia para la formación de ingenieros creativos. 3
Análisis espectroscópico para mapear los efectos de los incendios forestales de forma remota
mediante imágenes detectadas del aprendizaje automático 4
Predicción de la tasa de corrosión y los factores asociados, de aceros de baja aleación en
condiciones de atmosfera marina, mediante el uso de aprendizaje automático 5
Predicción del diagrama de transformación por enfriamiento continuo para zonas afectadas
por soladura mediante el uso de aprendizaje automático 6
Simulación energética y análisis de variables del proceso de refinado de celulosa (pulpa) por
procesos termo mecánicos mediante el uso de aprendizaje automático 7
Predicción del coeficiente de expansión térmica lineal de los homopolímeros amorfos a partir
de la estructura química. 8
Modelado de los niveles de calidad del dióxido de azufre (SO2) de la ciudad de Jeddah
mediante enfoques de aprendizaje automático con factores meteorológicos y químicos 9

Equilibrio termodinámico vapor-líquido en mezclas de agua y nafta 10


Aprendizaje automático en ingeniería de productos químicos: el estado del arte y una guía
para principiantes 11
Aplicaciones de aprendizaje automático para reacciones químicas 12
Aplicación de aprendizaje automático en la ciencia y la gestión de incendios forestales 13
IA en el descubrimiento de drogas: avances recientes y perspectivas futuras 14
Redes neuronales y sistemas de interferencia neuro difusas adaptativas para flujos de ríos 15
Red neuronal que aprende a contar 16
¿Cómo se puede integrar la información de polidispersidad en el modelado QSPR de
propiedades mecánicas? 17

A-2
Evaluación de contaminantes biológicos en alimentos mediante imágenes hiperespectrales

18

Aprendizaje automático para el desarrollo de terapias de microbiomas

19
Soluciones de aprendizaje automático en sistemas de alcantarillado: un análisis bibliométrico 20

Aprendizaje automático en aplicaciones de fabricación e industria 4.0


21

El ciclo de vida del aprendizaje automático y la nube: implicaciones para el descubrimiento


de fármacos.
22
Una determinación automática del estado de seguridad alimenticio: análisis de datos de
encuestas de hogares basado en el aprendizaje automático. 23
La IA en el descubrimiento prematuro de fármacos para la medicina precisa. 24

Predicción y optimización de la resistencia adhesiva epoxi a partir de bases de datos


pequeñas mediante el aprendizaje activo
25
Inteligencia artificial, aprendizaje automático y reutilización de fármacos contra el cáncer 26
Nuevo marco de aprendizaje automático para la predicción de la conductividad térmica
mediante un conjunto integrado de convolución de gráficos de cristal 27
Desarrollo del acoplamiento oxidativo de azufre del proceso de metano y su modelado
mediante aprendizaje automático 28
Inteligencia artificial: aprendizaje automático para las ciencias químicas 29
Estimaciones horarias de O3 en superficie continua mediante la integración de Transporte
químico y modelos de aprendizaje automático en el Región de Beijing-Tianjin-Hebei 30
Cálculo y diseño acelerado por aprendizaje automático de electrocatalizadores para la
reducción de CO2 31
Aprendizaje por refuerzo, para el diseño de sistemas orientados a fármacos y medicinas
personalizadas 32
Investigaciones sobre el uso del aprendizaje automático para predecir el diseño de la dosis 33

A-3
farmacéutica, con el fin de obtener los perfiles de liberación deseados para los medicamentos
orales impresos en 3D.

Aplicación del aprendizaje de redes neuronales profundas al diseño de materiales compuestos


34
Enfoque de aprendizaje automático frente a modelos de regresión lineal para la predicción
precisa de concentraciones de ozono 35
Fuente: Elaboración propia.

Tabla A.2. Tabla de análisis de correlaciones.


No de Tema 1 2 3 4 5 6 7 8 9 10
Estudios principales Optimizacion Prediccion Educacion Prediccion Prediccion Prediccion Optimizacion Prediccion Prediccion Prediccion
Estudios principales 4 8 4 8 8 8 4 8 8 8

Redes neuronales x x x x x x
Relacion con
variables externas x x x x x
Relacion en base a
composición quimica x x x x x x
Ajustes graficos,
representacion
grafica
x x x x x

Relacion en base a
condiciones
medioambientales
x x x x

Simulacion x x x x x
Bosques aleatorios x x
Arboles de decisión x x
Propiedades
mecanicas x x x
Investigacion/
analisis comparativo x
Estudios
farmaceuticos
Aprendizaje
profundo

A-4
No de Tema 11 12 13 14 15 16 17 18 19 20
Estudios principales Educacion Optimización Educacion Optimización Prediccion Educación Prediccion Optimización Optimización Optimización
Estudios principales 4 4 4 4 8 4 5 6 7 8

Redes neuronales x x x x x x x x
Relacion con
variables externas x x x x x x
Relacion en base a
composición quimica x x x x x x
Ajustes graficos,
representacion
grafica
x x x x x

Relacion en base a
condiciones
medioambientales
x

Simulacion x x x x x x
Bosques aleatorios x x x
Arboles de decisión x x x
Propiedades
mecanicas x
Investigacion/
analisis comparativo x x x x x
Estudios
farmaceuticos x
Aprendizaje
profundo x x

A-5
Fuente: Elaboración propia.

A-6
ANEXO B
Codificación ejemplo de aplicación

B-1
Anexo B. Codificación de ejemplos
B.1. Codificación ejemplo de clasificación
A continuación, en la Tabla B.1 se muestra los datos seleccionados para dicha prueba y
posteriormente se muestra el código utilizado.
Tabla B.1. Extracción de base de datos de KNOVEL.
No. PM Temperatura L1 L2 FP Inflamabilidad
662 30.08 472 3 12.5 -135 4
1087 58.12 365 2 8.8 -83 4
1266 44.09 450 1.8 11.2 -80 4
297 86.47 632 0 26.9 -78 0
1706 100.5 232 1 6 -57 4
1370 72.15 468 1.3 7.6 -57 4
203 58.1 287 1.8 8.4 -56 4
1036 72.15 420 1.4 7.6 -51 4
1374 72.15 404 1.4 7.8 -50 4
550 66.05 454 3.9 16.9 -50 4
298 64.5 510 3.6 14.8 -50 4
301 50.49 632 8.1 17.4 -50 4
1701 72.11 202 1.3 28 -46 4
444 74.14 160 1.7 49 -45 4
193 94.9 536 10 16 -44 1
489 46.07 350 3.4 18 -42 4
551 46.07 350 3.4 18 -41 4
4 44.06 140 4 57 -39 4
219 73.14 379 1.5 9.2 -38 3
356 70.1 361 1.1 8.7 -37 3
1291 58.09 449 2.3 36 -37 4
60 59.11 317 2 10.4 -36 3
805 68.08 390 2.3 14.3 -36 4
950 59.11 330 2.3 10 -35 4
1099 88.17 460 1 8 -33 3
1081 86.18 278 1.2 7 -32 3
1029 31.07 430 4.9 20.7 -30 4
49 57.1 370 2.2 22 -29 3

B-2
359 68.12 395 1.5 12.1 -29 3
465 102.2 405 1.4 22 -28 3
1055 60.05 449 5 23 -28 4
243 88.15 460 2.5 15.1 -28 3
1271 58.08 207 2.6 17 -27 3
24 56.07 234 2.8 31 -26 3
877 84.16 253 1.2 6.9 -26 3
423 73.14 312 1.8 10.1 -26 3
234 72.12 370 3.9 20.6 -25.5 3
873 86.18 225 1.1 7.5 -22 3
1080 86.18 264 1 7 -22 3
701 74.1 455 2.7 16.5 -20 3
191 108.97 510 6.75 11.2 -20 1
218 73.1 378 1.4 9.8 -19 3
471 76.1 235 1.6 17.6 -18 3
344 84.2 260 1.3 8.4 -18 3
768 70 419 1.5 8.7 -18 3
698 44.06 429 3 100 -18 4
11 58.09 465 2.2 13 -18 3
675 45.1 385 3.5 14 -17 4
1543 72.12 321 1.8 11.8 -14 3
1026 74.09 454 3.1 16 -13 3
Fuente: Elaboración propia. Adaptado de [Knovel, 2023].

In [9] : import itertools


import numpy as np
import [Link] as plt
from [Link] import NullFormatter
import pandas as pd
import numpy as np
import [Link] as ticker
from sklearn import preprocessing
%matplotlib inline
In [10] : df = pd. Read_csv( ' PRUEBA [Link] ' )

B-3
df . head( )
Out [10]:

In [11]: X = df [ [ 'PM', 'Temperatura', 'FP'] ] .values #.astype( float )


ln [12]: y = df[ ' Inflamabilidad ' ]. values
ln [13]: X = [Link]( ).fit(X).transform([Link]( float ))
ln [14]: from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.2,
random_state=4)
ln[15]: from [Link] import KNeighborsClassifier
from sklearn import metrics
ln[16]: k=range(1,21)
precision=[ ]
for i in k:
#Entrenar el Modelo y Predecir
neigh = KNeighborsClassifier(n_neighbors = i).fit(X_train,y_train)
yhat = [Link](X_test)
[Link](metrics.accuracy_score(y_test, yhat) )
[Link]( k,precision )
[Link]( )

B-4

También podría gustarte