Revista Edgar 8 Vo
Revista Edgar 8 Vo
REVISTA IA CEPA
1
Índice
Aplicaciones de la inteligencia artificial en la vida cotidiana ...................................................... 4
Redes Neuronales.......................................................................................................................... 5
Robótica y Automatización ........................................................................................................... 5
Avances recientes en la Inteligencia Artificial .............................................................................. 6
AEPIA (Asociación Española para la Inteligencia Artificial). ............................................................ 8
Predicción precisa de precios por parte de Double Deep Q-Network ...................................... 11
Un nuevo modelo de aprendizaje profundo para la segmentación del páncreas: Pascal U-Net
...................................................................................................................................................... 14
Verificación de rostros invariante a la edad y de distintas edades mediante aprendizaje por
transferencia................................................................................................................................ 18
FRESHNets: evaluación de la frescura de los alimentos de alta precisión y eficiencia basada
en redes neuronales convolucionales profundas. ..................................................................... 21
La superioridad del ajuste fino sobre el entrenamiento completo para el diagnóstico
eficiente de la EPOC a partir de imágenes de radiografía de tórax........................................... 24
Extrapolación del costo de cultivo de cultivos basada en aprendizaje automático. ................ 27
Clasificación binaria de imágenes de cáncer de piel mediante redes preentrenadas con I-
GWO ............................................................................................................................................. 30
La singularidad se encuentra con la semántica: un novedoso enfoque de bolsa de palabras
semánticamente significativa para hacer coincidir los currículos con los perfiles de trabajo. 33
2
Aprovechar el aprendizaje por transferencia para un diagnóstico eficiente de la EPOC
mediante imágenes de radiografía de tórax y técnicas de inteligencia artificial explicables .. 36
3
• Década de 1980: La IA experimenta un renacimiento, gracias al aumento
de la potencia computacional y el desarrollo de nuevos enfoques, como
las redes neuronales artificiales y el aprendizaje automático.
4
• Autocompletado de Búsqueda: Los motores de búsqueda como Google
utilizan IA para predecir y completar consultas de búsqueda mientras
escribes.
• Reconocimiento Facial: Aplicaciones de redes sociales como Facebook
utilizan IA para etiquetar automáticamente a las personas en las fotos.
Redes Neuronales
La ética y responsabilidad en la inteligencia artificial se refieren al conjunto de
principios y prácticas que guían el desarrollo, implementación y uso de sistemas
de IA de manera ética y responsable. Esto implica considerar el impacto social,
ético y moral de la IA, asegurando que los sistemas sean justos, transparentes,
seguros y respetuosos con los derechos humanos. También implica la asignación
clara de responsabilidades para mitigar posibles riesgos y garantizar que la IA se
utilice para el beneficio de la sociedad en su conjunto.
La ética y la responsabilidad en la inteligencia artificial abarquen una amplia
gama de consideraciones y desafíos. Algunos temas importantes incluyen:
• Transparencia y explicabilidad: Los sistemas de IA deben ser transparentes
y capaces de explicar sus decisiones y procesos de razonamiento de
manera comprensible para los humanos.
• Equidad y justicia: Es fundamental garantizar que los sistemas de IA no
perpetúen ni amplifiquen sesgos existentes en los datos o en las
decisiones humanas. Se deben implementar medidas para promover la
equidad y la justicia en el desarrollo y el uso de la IA.
• Privacidad y protección de datos: Los sistemas de IA deban respetar la
privacidad y proteger los datos personales de los usuarios. Esto implica
implementar medidas de seguridad sólidas y cumplir con las regulaciones
de privacidad aplicables.
Robótica y Automatización
La Robótica es un campo interdisciplinario que se centra en el diseño,
construcción, operación y uso de robots. La automatización, por otro lado, se
refiere al proceso de hacer que un sistema funcione automáticamente, sin
intervención humana directa. En conjunto, la robótica y la automatización
buscan la eficiencia, la precisión y la seguridad en una amplia gama de
aplicaciones industriales, comerciales y domésticas.
5
La robótica y la autorización son campos fascinantes con un gran impacto en
diversas industrias. Aquí hay algunos puntos clave:
• Robótica: La robótica implica el diseño, construcción y
programación de robots para realizar tareas específicas. Los
robots pueden variar desde simples brazos mecánicos hasta
complejos sistemas con inteligencia artificial y capacidades de
aprendizaje. Se utilizan en industrias como la manufactura, la
medicina, la exploración espacial, la agricultura, entre otras.
6
han mejorado en su capacidad para comprender y generar lenguaje
natural. Esto ha llevado avances en aplicaciones como el servicio al
cliente automatizado, la atención médica y médica virtual y la
educación asistida por inteligencia artificial.
7
• Inteligencia artificial distribuida y Edge computing: Con el crecimiento
de positivos conectados a internet y el internet de las cosas, se espera
que la inteligencia artificial se distribuya en una amplia gama de
dispositivos desde teléfonos inteligentes hasta sensores industriales.
Esto impulsará la necesidad de capacidades de inteligencia artificial
más eficientes y de baja latencia, lo que podría conducir al desarrollo
de técnicas de aprendizaje federado y Edge computing.
8
Métrica
Nacimiento de AEPIA
Un grupo de investigadores españoles, que trabajaban en diversos campos de la
Inteligencia Artificial (IA), coinciden en Karlsruhe (Alemania) en agosto de 1983, durante
la celebración del congreso International Joint Conferences on Artificial Intelligence
(IJCAI1983). En ese momento se estaba gestando una asociación de IA a nivel europeo,
y este grupo de investigadores pioneros considera necesario la organización a nivel
español, para promover la comunicación entre los investigadores de IA en España y
para tener una representación en la asociación que se estaba gestando a nivel europeo.
Inteligencia Artificial 74 (2024) En el otoño del 83, los investigadores D. José Cuena, D.
Francisco Garijo y Dª Felisa Verdejo lideraron la iniciativa de contactar con profesionales
académicos y de la industria, para proponerles la creación de una asociación. A su vez
buscaron patrocinadores para la organización de las jornadas “Inteligencia Artificial,
Introducción y situación en España”, consiguiendo el patrocinio por parte de la
Fundación para el Desarrollo de la función social de las Comunicaciones (Fundesco). El
2,3 y 4 de Julio de 1984 se celebraron en los locales de la estación de satélites de
Telefónica en Buitrago, unas jornadas técnicas con el objetivo de analizar la situación de
la Inteligencia Artificial en España, y abordar la creación de la Asociación Española Para
la Inteligencia Artificial (AEPIA).
9
Logos de AEPIA
A estas jornadas asistieron un total de cuarenta participantes, procedentes del ámbito
académico, de la empresa y de la administración. Se presentaron las siguientes áreas de
investigación: Sistemas Expertos, Comprensión del Lenguaje Natural, Representación y
Adquisición de Conocimiento, Robótica, Visión por Computador y Entornos de
Programación para la IA. El contenido de las jornadas dio lugar al libro “Inteligencia
Artificial. Introducción y situación en España”, publicado por FUNDESCO donde se
presenta un panorama de la investigación en IA en España. Las jornadas finalizaron con
una sesión dedicada a la creación de la AEPIA, en la que se aprobó el proyecto de
estatutos, y se acordó el nombramiento de una comisión gestora para la puesta en
marcha de la misma y para la formalización de los tramites oficiales. Esta comisión
gestora estuvo formada por Dª Carme Torras, D. José Cuena, Dª Felisa Verdejo y D.
Francisco Casa cuberta, en representación de los cuatro núcleos de investigación en IA
que fueron identificados en ese momento: Barcelona, Madrid, País Vasco y Valencia. La
Asociación Española Para la Inteligencia Artificial (AEPIA) se registró oficialmente el 31
de agosto del 1984 en el Ministerio del Interior, y una semana después, AEPIA fue
aceptada como miembro español en la Asociación Europea de Inteligencia Artificial
(ECCAI, European Committee for Coordination of Artificial Intelligence) que se celebró
desde el 5 hasta el 7 de septiembre de1984 en Pisa.
10
hacía desde Madrid y era financiada por telefónica I+D. En el número 4 (Otoño’95) se
formalizó la publicación con un registro de ISSN: 1135-6669. A finales de 1996, y
contrastándose la creciente calidad de la publicación, se decidió ponerle un nombre de
mayor impacto, ‘Inteligencia Artificial, Revista Iberoamericana de Inteligencia Artificial’
registrándose con ISSN: 1137-3601. D. Federico Barber fue el editor-fundador de la
revista desde el primer número publicado en el invierno de 1997 hasta 2001. Este
primer número tuvo un nuevo diseño elaborado por D. Juan Carlos Carril, del equipo de
diseñadores de Telefónica I+D.
La portada de la revista volvió a cambiar en diciembre de 2003, con un diseño de D.
Youn Shin Cho a un solo color para facilitar la impresión, con un troquel incluido para
permitir su reutilización y distribución desde [Link]ón de las sucesivas
portadas del Boletín de la AEPIA en 1986, 1994 y 1995. En la Asamblea General de 1999
se decidió incrementar la promoción de la revista y realizar un portal electrónico propio,
que Dª Beatriz Barros y su equipo en la UNED hicieron realidad en el 2000,
registrándose la versión digital con el ISNN 1988-3064. El portal sucesivamente
actualizado bajo la plataforma Open Journal Sesten (OJS) ha evolucionado hasta su
versión actual donde se facilita el proceso de gestión, la evaluación y descarga gratuita
de las publicaciones. Sucesivos portales de la revista Inteligencia Artificial, hasta su
portal actual en [Link] la presidencia de D. Federico
Barber (2001- 2007), impulsaron la revista nuevos editores: A partir del número 16, Dª
Ana García Serrano de la Universidad Politécnica de Madrid.
11
comparación con otros métodos sugeridos para hacer frente a cambios repentinos en
los precios.
Descargas
Métrica
12
otro lado, ha fusionado el aprendizaje profundo con el aprendizaje por refuerzo, lo que
da como resultadoSimulación de la percepción de los humanos y metodologías de
aprendizaje. La red neuronal profunda tiene algunas ventajas y contras, en cuanto al
primero, tener una fuerte percepción. Se puede destacar la capacidad de extracción de
características y, para el orgúltimo, siendo indeciso para la decisión- Se pueden destacar
los procesos de fabricación.
Para eliminar esta deficiencia, el aprendizaje por refuerzo ha cobrado importancia para
eliminar esos puntos débiles. En profundo-proceso de aprendizaje. Mnih enuno de los
protagonistas que sugirieron una red Q profunda, una red de redes neuronales
convolucionales en aprendizaje de refuerzo. La red de doble Q fue acuñada por Hasselt
y conducida a proporcionar amortiguación en Medio ambiente. Siguiendo esta línea, se
proporcionó Double DQN, lo que dio como resultado dos sub modelos dentro de
mejorar la eficiencia del agente en el entorno. En este estudio, se ha utilizado un
aprendizaje de refuerzo profundo especial presentado. Es un algoritmo en el que la
combinación se han empleado redes neuronales LSTM y CNN para la predicción del
precio del oro, que los académicos no habían destacado antes. Para alcanzar este
objetivo, un agente determinado emplea una red neuronal profunda que incluye LSTM-
Capas CNN. Los méritos del LSTMCRed neuronal NN las capas están aprendiendo
muchos-registros de dependencia de términos y varias extracciones de características
para una interpretación precisa y concisa predicción del agente.
Después de procesar el conjunto de datos, realizamos el examen paramétrico de cada
conjunto de datos. Tiene la implicación de tener certeza sobre el tamaño de la ventana
y el procedimiento de división basado en Kfold para aumentar la precisión del algoritmo
y lograr una mejor predicción. En la tabla 1, después de algunos experimentos, hemos
logrado las características más efectivas de los datos que tienen más influencia en el
proceso de predicción. En particular, en todos los experimentos, la salida se presenta
como 1 de forma predeterminada. En esta sección, el modelo propuesto en este
estudio, DDQN con red neuronal LSTM-CNN, se prueba mediante dos modelos a
continuación: 1. DDQN con CNN-DENSE Red neuronal 2. Modelo supervisado con capa
LSTM-CNN. En este caso, notamos que hay varios factores que contribuyen a maximizar
la precisión de nuestro agente, resumidos como:
13
Existen muchos algoritmos en la predicción del precio del mercado de valores y han
tenido resultados notables. Sin embargo, se ha prestado menos atención al aprendizaje
por refuerzo profundo, especialmente al DDQN. Hemos intentado aplicar diferentes
experimentos mediante el algoritmo propuesto. Hemos logrado resultados notables
combinando LSTM y CNN en la red neuronal DDQN.
14
Métrica
Materiales y métodos
La Universidad Pascal-Se presenta el modelo de red propuesto para la segmentación del
páncreas y las características del conjunto de datos utilizados. En esta sección se detalla
el rendimiento del Pascal U propuesto. El modelo Net se probó en dos conjuntos de
datos diferentes y los resultados se compararon con los tradicionales. Una nacional-
Modelo de red.
Características de los conjuntos de datos
En este estudio se utilizaron dos conjuntos de datos diferentes que consisten en
imágenes de TC abdominal. El primero de ellos es el conjunto de datos de acceso
público. Conjunto de datos de TC de páncreas disponible extraído de la base de datos
The Cancer Imaging Archive (TCIA). El otro es un conjunto de datos que consiste en
imágenes de TC abdominal tomadas del Departamento de Radiología de la Facultad de
Medicina de la Universidad de SelcukHospital (SUMFH). Debido a la tarjeta gráfica
limitada de la computadora utilizada en el estudio, los conjuntos de datos para el
aprendizaje profundoLos modelos fueron creados por seSeleccionar un corte en el que
se pudiera segmentar el páncreas de cada paciente en ambos conjuntos de datos. El
primer conjunto de datos utilizado en el estudio es el conjunto de datos de TC de
páncreas tomado de la base de datos TCIA [13]. En este conjunto de datos tomado de
los Institutos Nacionales de Salud Clin en el Centro Médico de los Estados Unidos, hay
82 centros de contraste. Mejorado 512Imágenes de TC de 512 píxeles tomadas a 53
hombres y 27 mujeres de entre 18 y 76 años. Una imagen de TC original en el TCIA
conjunto de datos, la versión etiquetada de esta imagen, y el máscara del segmento
deseado la acción se puede ver en la Figura 1.
15
Las imágenes utilizadas como segundo conjunto de datos en el estudio se crearon a
partir de imágenes de TC abdominal tomadas del Departamento de Radiología del
Hospital de la Facultad de Medicina de la Universidad de Selcuk (SUMFH). Se tomaron
58 imágenes de TCde 30 hombres y 28 mujeres en los datos SUMFHet. Todos los
pacientes fueron examinados en un128-fila dual-fuente TC sistema (Somatom Definition
Flash; Siemens Healthcare, Forchheim, Alemania), en el que se encuentran 2 x los tubos
de rayos X eran arreglado en un95-grados de ángulo entre sí y contenidos2 juegos de
detectores. El examen pro el tocol fue el siguiente:120 kVp, matriz 512 x 512, 64 x 0,6-
Colimación en mm. Las imágenes de este conjunto de datos han sido etiquetadas por
un radiólogo quien es un experto en su campo en el Departamento de Radiología del
SUMFH. La Figura 2 muestra una imagen de TC original en el datos SUMFH conjunto, la
versión etiquetada de esta imagen y la máscara de la imagen.
Preprocesamiento
Determinación del ROI
Antes de que las imágenes de cada conjunto de datos se entreguen a la red de
aprendizaje profundo, se realizan procesos de preprocesamiento que consisten en se
aplican varios pasos. Como se puede ver en la Figura 3, en las regiones de interés (ROI)
donde se puede localizar el páncreas s e determinaron los detectados y se recortaron
las imágenes con dimensiones de 512 × 512 píxeles. De esta manera, las áreas donde no
se escaneó el páncreas y el tamaño de las imágenes en todo el conjunto de datos
reducido a 256 × 256 píxeles. Por lo tanto, las zonas donde no hay páncreas no se ven
afectadas por resultados de la segmentación y esto es para permitir una mayor rapidez
formación y procesamiento demás imágenes al mismo tiempo durante el entrena.
16
17
Verificación de rostros invariante a la edad y de
distintas edades mediante aprendizaje por
transferencia
La integración de la tecnología de verificación facial se ha vuelto indispensable en
numerosos sistemas de software de seguridad y protección. A pesar de sus
prometedores resultados, el campo de la verificación facial enfrenta desafíos
significativos debido a las disparidades relacionadas con la edad. Las características
faciales humanas sufren transformaciones sustanciales con el tiempo, lo que lleva a
diversas variaciones que incluyen cambios en la textura facial, la morfología, el vello
facial y la adopción de anteojos. Este estudio presenta una metodología pionera para la
verificación facial de diferentes edades, que utiliza técnicas avanzadas de aprendizaje
profundo para extraer características faciales resistentes y distintivas que son menos
susceptibles a las fluctuaciones relacionadas con la edad. El proceso de extracción de
características combina características hechas a mano como el patrón binario
local/histograma de gradientes orientados con características profundas de las redes
MobileNetV2 y VGG-16. Como la textura de la piel facial define la característica
relacionada con la edad, se prefieren los conocidos extractores de características de
textura como LBP y HoG. Estas características se concatenan para lograr la fusión, y las
capas posteriores las afinan. La validación experimental que utiliza el conjunto de datos
de celebridades de diferentes edades demuestra una eficacia notable, logrando una
precisión del 98,32%.
Descargas
Métrica
18
El reconocimiento facial representa una tecnología de identificación biométrica que
surgió como una herramienta fundamental en la autenticación de identidad y encuentra
una amplia utilidad en varios dominios, incluidos la aplicación de la ley, los procesos de
verificación de identidad y seguridad medidas. La principal diferenciación entre la
verificación facial y el reconocimiento facial está en la tecnología selección de
cualquiera de los dos-a-uno o uno-coincidencia de varios. La verificación facial se
emplea con el objetivo de comprobar la autenticidad de una identidad declarada del
individuo. El proceso de verificación facial implica la identificación y cuantificación de
características faciales dentro de una imagen. Con el tiempo, varias causas como la
aparición de arrugas, aumento de peso y proliferación de vello facial, uso de gafas y
otros los elementos pueden inducir alteraciones notables en la textura y el contorno de
los rostros humanos. Por lo tanto, la verificación facial plantea un reto problema
desafiante.
19
Conjunto de datos
El conjunto de datos de celebridades de todas las edades comprende un conjunto
completo de imágenes que representan celebridades en diversas etapas de sus vidas. El
conjunto de datos se emplea con frecuencia en la evaluación de algoritmos
relacionados con tareas como la estimación de la edad, el reconocimiento facial y la
verificación facial. El conjunto de datos CACD comprende un total de 163.446 imágenes
extraídas de Internet, en las que aparecen 2.000 celebridades distintas. El rango de
edad de estos individuos va desde los 14 a los 62 años. El contenido visual se adquirió
de fuentes de acceso público, incluidas imágenes fijas de películas, eventos de alfombra
roja y cuentas de redes sociales. En la Figura 2 se muestran ejemplos de imágenes del
conjunto de datos. Figura 2. Imágenes de muestra de la base de datos CACD.
20
FRESHNets: evaluación de la frescura de los
alimentos de alta precisión y eficiencia basada en
redes neuronales convolucionales profundas.
La clasificación de la frescura de los alimentos es una preocupación creciente en la
industria alimentaria, principalmente para proteger la salud del consumidor y prevenir
enfermedades e intoxicaciones por el consumo de alimentos en mal estado. Con la
intención de dar un paso significativo hacia la mejora de la seguridad alimentaria y las
medidas de control de calidad en la industria, este estudio presenta dos modelos
basados en el aprendizaje profundo para la clasificación de la frescura de frutas y
verduras: un modelo robusto y un modelo eficiente. La evaluación del rendimiento de
los modelos muestra resultados notables; en términos de precisión, el modelo robusto
y el modelo eficiente alcanzaron el 97,6% y el 94,0% respectivamente, mientras que en
términos de puntuación del Área bajo la curva (AUC), ambos modelos alcanzaron más
del 99%, con una diferencia en el tiempo de inferencia entre cada modelo sobre 844
imágenes de 13 segundos.
Descargas
Métrica
21
La clasificación de la frescura de frutas y verduras es una preocupación fundamental en
la industria alimentaria, que influye en la salud del consumidor, los hábitos de compra y
los precios de mercado. La llegada de la visión por computadora y el aprendizaje
automático ha facilitado la creación de algoritmos para la detección y el reconocimiento
automatizados de objetos. Estas técnicas han encontrado aplicaciones en la industria
procesadora de frutas, donde la categorización y clasificación de la frescura de la fruta
son cruciales para ofrecer productos de calidad superior. Las frutas son vulnerables a las
infecciones virales y fúngicas, que ejercen presión económica sobre el sector agrícola.
La clasificación manual de fruta en función de su calidad requiere mucha mano de obra.
Se han realizado varios estudios sobre la aplicación de la Inteligencia Artificial (IA) en la
identificación y evaluación de la calidad de la fruta. Goyal & Verma (2023) desarrollaron
un sistema basado en IA para la identificación de frutas y detección de calidad
utilizando el sistema de detección de objetos YOLOv5, que funciona en dos etapas:
identificación de frutas y evaluación de calidad. El conjunto de datos utilizado en esta
investigación consta de 10.545 imágenes de cuatro frutas diferentes (manzanas,
plátanos, naranjas y tomates) categorizadas según su calidad. Anupriya (2022) aplicó
máquinas de vectores de soporte (SVM) y la arquitectura VGG-16 a un conjunto de
datos de imágenes de manzanas para predecir la calidad de la fruta, donde los
resultados mostraron que la arquitectura VGG-16 superó a la SVM en términos de
precisión, lo que confirma que el aprendizaje profundo puede ser superior al
aprendizaje automático en tareas de visión por computadora.
Estos estudios destacan el potencial de la IA para revolucionar el proceso de evaluación
de la calidad de la fruta. Ren. X et al. (2023) desarrollaron un sistema de nariz
electrónica basado en una red neuronal convolucional (CNN) para la clasificación de la
frescura de los alimentos. El sistema, que constaba de un conjunto de sensores de gas
sensibles y un circuito integrado CMOS, tomó exposiciones fijas en intervalos
específicos bajo diferentes condiciones de gas, lo que permitió extraer características
de series temporales de las señales del sensor que se utilizaron para identificar
diferencias sutiles en los olores de los alimentos. en diferentes niveles de frescura. El
sistema logró una precisión de clasificación del 97,3 % para 20 tipos de alimentos, con
una mejora del 6,5 % después de implementar la extracción de características de series
temporales. Reconocer las importantes contribuciones de la IA a la clasificación de la
22
frescura de los alimentos, que tiene profundas implicaciones para diversas industrias y
afecta directamente los beneficios y beneficios para el consumidor. seguridad, este
estudio tiene como objetivo desarrollar una solución para la clasificación multi clase de
frutas y verduras en función de su frescura utilizando técnicas de aprendizaje profundo.
El conjunto de datos utilizado en este estudio consta de 18 clases diferentes, incluidas
nueve categorías de frutas y verduras frescas y nueve categorías de sus contrapartes en
mal estado.
23
En particular, ambos modelos lograron una puntuación AUC de aproximadamente 99 %,
lo que indica su excelente rendimiento. El rendimiento observado de los modelos fue
posible gracias al ajuste de hiperparámetros utilizando Keras Tuner, una devolución de
llamada de reducción de la tasa de aprendizaje y la incorporación de técnicas de
normalización. Los resultados de datos no vistos subrayan la confiabilidad de ambos
modelos, y cada modelo muestra superioridad en rendimiento o eficiencia, lo que
demuestra su potencial para aplicaciones prácticas en la industria alimentaria.
24
Métrica
25
imperativo adaptar los modelos previamente entrenados al dominio médico específico,
ajustar los parámetros para un rendimiento óptimo y garantizar que las decisiones de
los modelos puedan interpretarse y justificarse, especialmente en aplicaciones médicas
críticas. TL está ganando reconocimiento como una herramienta central para acelerar la
creación y aplicación de instrumentos de diagnóstico basados en IA en la atención
sanitaria, en particular para enfermedades como la EPOC.
Adquisición y preprocesamiento del conjunto de datos Imágenes sin ruido y de alta
resolución caracterizan el conjunto de datos NIH Chest Xray 14 utilizado en este
estudio, lo que elimina la necesidad de mejoras adicionales en la calidad de la imagen.
No obstante, para garantizar la resiliencia y adaptabilidad del modelo, se llevaron a
cabo pasos de preprocesamiento específicos. Esto implicó reescalar y normalizar las
imágenes. Durante el entrenamiento, el aumento de datos se volvió crucial. Las
imágenes se sometieron a rotaciones aleatorias de 30 grados y giros de 25 grados tanto
vertical como horizontalmente, una metodología derivada de investigaciones
anteriores. La Tabla 1 proporciona una descripción detallada de los parámetros
asociados con estas medidas de preprocesamiento.
Este estudio subrayó la importancia de ajustar las CNN previamente entrenadas, como
InceptionV3, ResNet50 y VGG19, para mejorar el diagnóstico de EPOC mediante
imágenes de CXR. Estos modelos de aprendizaje profundo mostraron una clara ventaja
sobre los modelos de aprendizaje automático tradicionales, especialmente en tareas
que requieren extracción de características complejas de imágenes médicas. Una
relevancia clave fue el papel fundamental del aumento de datos para reforzar el
rendimiento, particularmente cuando se trata de conjuntos de datos médicos limitados
o desequilibrados. Los hallazgos sugieren que los modelos bien ajustados pueden lograr
resultados encomiables, a menudo superando a los modelos entrenados desde cero,
pero con demandas computacionales reducidas. Además, lograr un equilibrio entre la
complejidad del modelo, los recursos computacionales y la precisión del diagnóstico
surgió como un aspecto novedoso de esta investigación. Los estudios futuros se
centrarán en el potencial de la interpretabilidad del modelo, garantizando procesos de
toma de decisiones más transparentes. Explorar diferentes estrategias de aumento de
datos e integrar comentarios clínicos del mundo real puede perfeccionar aún más estos
modelos. La evolución continua de las arquitecturas de CNN presenta oportunidades
para probar modelos más nuevos que podrían ofrecer una precisión diagnóstica aún
mejor para la EPOC y otras afecciones médicas.
26
Extrapolación del costo de cultivo de cultivos basada
en aprendizaje automático.
Es importante comprender la relación entre los gastos operativos, como mano de obra,
semillas, riego, insecticidas, fertilizantes y estiércol, necesarios para el cultivo de
cultivos. Un costo preciso para el cultivo de cultivos puede ofrecer información vital
para la toma de decisiones agrícolas. El objetivo principal del estudio es comparar las
técnicas de aprendizaje automático (ML) para medir las relaciones entre las
características de los costos operativos para predecir los costos de cultivo de cultivos
antes del inicio de la temporada de crecimiento utilizando el conjunto de datos
27
proporcionado por el Ministerio de Agricultura y Bienestar del Agricultor del Gobierno
de la India.
Este documento describe varias técnicas de regresión de ML, compara varios algoritmos
de aprendizaje y determina los algoritmos de regresión más eficientes en función del
conjunto de datos, la cantidad de muestras y los atributos. El conjunto de datos
utilizado para predecir el costo con 1680 instancias incluye costos variables para 14
cultivos diferentes durante 12 años (2010-2011 a 2021-2022). Se consideran diez
algoritmos de ML diferentes y se predice el costo del cultivo de cultivos. Los resultados
de la evaluación muestran que las regresiones Random Forest (RF), Decision Tree (DT),
Extended gradient boosting (XR) y K-Neighbours (KN) brindan un mejor rendimiento en
términos de coeficiente de determinación (R2), error cuadrático medio (RMSE) y tasa de
error absoluto medio (MAE) durante el entrenamiento y el tiempo de prueba. Este
estudio también compara diferentes técnicas de ML y mostró diferencias significativas
utilizando la prueba de análisis estadístico de varianza (ANOVA).
Descargas
Métrica
29
para entrenar los modelos, mientras que el 30% restante (504 muestras) se utilizó para
probarlos. La función Python sklearn. model_selection train_test_split divide los puntos
en un tren arbitrario y subconjuntos de prueba [46]. Se desarrollaron varias técnicas de
aprendizaje automático utilizando los paquetes sklearn de Python. El conjunto de datos
con el criterio de 10 veces ha sido expuesto a validación cruzada (CV).
30
del cáncer de piel. Esta investigación propuso un nuevo enfoque para la clasificación
binaria de imágenes dermatoscópicas para el cáncer de piel. El Optimizador de lobo gris
mejorado (I-GWO) se utiliza en esta técnica para ajustar los valores de algunos
hiperparámetros de varias redes de aprendizaje profundo entrenadas previamente para
maximizar los resultados. SqueezeNet, ShuffleNet, AlexNet, ResNet-18 y DarkNet-19 son
las redes entrenadas previamente que se emplearon. Probamos las bases de datos
MED-NODE y DermIS en nuestra investigación. Con respecto a los conjuntos de datos
MED-NODE y DermIS, los resultados de precisión más altos del método propuesto son
100% y 97%, respectivamente.
Descargas
Métrica
Una de las formas de cáncer más prevalentes en todo el mundo es el cáncer de piel. La
determinación de las características de la enfermedad requiere una evaluación clínica
de las lesiones cutáneas, pero este proceso está limitado por horizontes temporales
prolongados y una multiplicidad de interpretaciones. Se han creado técnicas de
aprendizaje profundo para ayudar a los dermatólogos con estos problemas, ya que una
mayor tasa de supervivencia del paciente depende de la detección temprana y precisa
del cáncer de piel. Esta investigación propuso un nuevo enfoque para la clasificación
binaria de imágenes dermatoscópicas para el cáncer de piel. El Optimizador de lobo gris
mejorado (I-GWO) se utiliza en esta técnica para ajustar los valores de algunos
hiperparámetros de varias redes de aprendizaje profundo previamente entrenadas para
maximizar los resultados. SqueezeNet, ShuffleNet, AlexNet, ResNet-18 y DarkNet-19 si
31
las redes previamente entrenadas que se emplearon. Probamos las bases de datos
MED-NODE y DermIS en nuestra investigación. Con respecto a los conjuntos de datos
MED-NODE y DermIS, los resultados de mayor precisión del método propuesto son del
100% y el 97%, respectivamente.
Trabajos relacionados Esta sección enumera diversas investigaciones que se han
publicado en el campo de la clasificación y detección del cáncer de piel. Se centra en
trabajos recientes que han utilizado el aprendizaje profundo (DL) con el mismo
propósito. Kwasigroch et al. propusieron utilizar una CNN con escalada de colinas como
espacio de búsqueda para clasificar las lesiones cutáneas. Este método aumentó el
tamaño de la red, reduciendo los costos informáticos. Adegún et al. describieron una
red de codificador y decodificador con conexiones de salto que unen subredes. La CNN
propuesta se utilizó para segmentar las lesiones cutáneas y categorizarlas píxel por
píxel. CNN, según Song et al, puede segmentar, reconocer y categorizar lesiones
cutáneas. Para controlar los conjuntos de datos desequilibrados, emplearon una
función de pérdida basada en la distancia de Jaccard y la pérdida focal. Manne et al.
propusieron un sistema de clasificación del cáncer de piel basado en CNN.
Mostraron una técnica informática completamente automatizada para la clasificación
de lesiones cutáneas. En este estudio, se entrenaron previamente tres modelos
(ResNet-18, AlexNet y VGG16) para que actuaran como generadores de funciones. Estos
atributos recuperados se utilizan posteriormente para entrenar máquinas de vectores
de soporte. Thurnhofer-Hemsi y Domínguez presentaron una arquitectura CNN para el
diagnóstico del cáncer de piel. Afirmaron que los resultados de la red DenseNet201 son
apropiados para esta aplicación. Kousis et al. estudiaron algoritmos de aprendizaje
profundo, así como una aplicación móvil para la detección precisa del cáncer de piel.
Propusieron el XGBoost, un promedio de 104los 8 mejores modelos DL y un promedio
de 15 modelos DL. Nawaz et al. presentaron algoritmos DL para el diagnóstico de
melanoma. CNN se utilizó en este enfoque para extraer características visuales. Luego,
estos atributos se envían a dos modelos de ANN, el primero de los cuales es una CNN y
se utilizó para identificar las ubicaciones de destino. Además, el segundo NN es un CNN
recurrente (RCNN), que detecta la ubicación de la lesión. Finalmente, la segmentación
de la lesión se realizó mediante el método Fuzzy K-means (FKM) en función de la
posición establecida. Reis et al. emplearon CNN para el diagnóstico del cáncer de piel
(SCD) e identificaron las ubicaciones de las lesiones. En este modelo, las imágenes de
entrada se preprocesan antes de segmentarlas utilizando la red UNet. La región de la
lesión se recorta según los resultados de la segmentación y este segmento se utiliza
como entrada de un modelo CNN denominado InSiNet para categorizar la imagen de
entrada.
Preprocesamiento
Los datos se preprocesaron de la siguiente manera. Primero, debido a que las imágenes
tienen diferentes dimensiones, es necesario escalar todas las imágenes a un tamaño
determinado. Todas las imágenes han sido escaladas a 250×250 píxeles. En segundo
lugar, las imágenes se filtraron utilizando el filtro mediano. En tercer lugar, el vello de la
32
piel que aparecía en las imágenes se eliminó mediante diversos procedimientos
morfológicos para que no afectara los resultados de la clasificación porque puede
considerarse parte de la lesión, como se muestra en la Figura 3. La Figura 4 ilustra cómo
se recortaron las imágenes. a una dimensión adecuada (150×150), ya que muchas
fotografías tienen bordes negros debido al uso del microscopio.
33
determinar el perfil del puesto. En este artículo, exploramos la novedosa combinación
de unicidad en términos de la cantidad de ocurrencias de una palabra clave en una clase
de currículo en comparación con las otras clases de currículo, y el concepto de
semántica al representar las palabras clave filtradas mediante incrustaciones de
palabras que se pueden utilizar para encontrar similitudes semánticas entre
documentos de currículo.
El principio de partición de máxima entropía se utiliza para encontrar las palabras clave
exclusivas de una clase en particular. El objetivo es utilizar representaciones semánticas
solo de aquellas palabras clave que aparecen con mayor frecuencia en una clase que en
cualquier otra clase; luego, estas se pasan como entrada a una memoria de corto plazo
bidireccional (LSTM) para su clasificación. Nuestros experimentos en un conjunto de
datos de referencia demuestran que el enfoque propuesto supera el estado del arte en
clasificación de texto por un margen significativo, lo que demuestra la eficacia de
nuestro enfoque.
Descargas
Métrica
Clasificar documentos según las palabras clave que contienen es un problema bien
investigado [1, 2, 3, 4, 5]. Se supone que dos documentos pertenecen a la misma
categoría si tienen un alto contenido mutuo de palabras clave, como afirmó Heaps allá
por 1973. La elección de las palabras clave que representan el documento de texto, por
lo tanto, tiene un papel crucial que desempeñar en el rendimiento de la clasificación.
Las palabras clave se filtran en función de su correlación con la etiqueta de clase o
simplemente en función de su frecuencia de aparición en los documentos. La
codificación one-hot, la frecuencia de términos (TF) y la frecuencia de documento
inversa de frecuencia de términos (TF-IDF) son ejemplos de representaciones de bolsa
34
de palabras (BoW) del texto en un documento; Luego, estos se clasifican mediante
algoritmos de aprendizaje automático como la red neuronal artificial o los árboles de
decisión.
En el enfoque BoW, las palabras clave se comparan simplemente en función de su
aparición y no de su significado real. Por otro lado, el uso de incrustaciones de palabras
semánticamente significativas como GloVe y Word2Vec facilita la coincidencia de
similitud semántica entre documentos para la clasificación de textos. Las redes
neuronales recurrentes, como la memoria a corto plazo (LSTM) o los transformadores,
se suelen utilizar para extraer información útil de la secuencia de incrustaciones de
palabras que emanan de cada documento. Los currículums son documentos preparados
por los solicitantes de un puesto de trabajo, que contienen sus datos personales,
calificaciones educativas, habilidades relacionadas con el puesto que solicitan y
experiencia laboral. La clasificación de currículums es un subconjunto del problema de
clasificación de documentos. Las clases o categorías en los conjuntos de datos de
currículum representan diferentes perfiles laborales, como contador, profesor, etc., que
tienen diferentes requisitos educativos y de habilidades.
MotivaciónProponemos la confluencia de dos perspectivas diversas y populares para la
extracción de características a partir de datos textuales: - el número de apariciones de
la forma morfológica de la palabra y la semántica o significado de la palabra. Para el
primero, utilizamos frecuencias de términos para identificar las palabras clave únicas en
un documento, y para el segundo, consideramos incrustaciones de palabras GloVe y
Word2Vec semánticamente significativas para representar las palabras clave únicas
filtradas en la primera fase.
En el presente trabajo, abordamos el estudio de caso específico de clasificación de
currículum donde la tarea es clasificar el currículum de candidatos en diferentes perfiles
laborales que constituyen las categorías de currículum. Un trabajo reciente sobre
clasificación de currículums adaptó con éxito las palabras clave de élite, introducidas en,
junto con clasificadores de aprendizaje automático, para la clasificación de currículums.
Las palabras clave de élite se seleccionaron en función de la frecuencia de aparición en
una clase de documento en particular. Nuestra investigación actual avanza en el
trabajo existente al: (i) filtrar aún más las palabras clave de élite para extraer las
palabras clave de élite únicas que son exclusivas de una clase en particular, seguido de
la concatenación entre clases después de eliminar la redundancia (ii) que representa la
secuencia de palabras clave de élite únicas palabras clave extraídas de cada documento
de currículum mediante incrustaciones de palabras GloVe y Word2Vec para hacer que
la representación general de características sea semánticamente significativa (iii)
aprender las incrustaciones secuenciales de palabras utilizando BiLSTM, que se sabe
que procesa información temporal de manera efectiva para clasificar documentos. El
objetivo es utilizar representaciones semánticas de sólo aquellas palabras clave
discriminativas que ocurren con más frecuencia en una clase que en cualquier otra
clase. Esto ayudaría a eliminar palabras clave engañosas que, aunque tienen un alto
número, pueden no representar de forma singular una clase de currículum.
35
Discusión sobre los resultados El número de palabras clave de élite únicas
preseleccionadas individualmente de cada clase se muestra en la Tabla 1 para el
Conjunto de datos-1 y en la Tabla 2 para el Conjunto de datos-2. El número total de
palabras clave de élite únicas concatenadas en todas las clases, después de eliminar la
redundancia, asciende a 8336 para el Conjunto de datos-1 y 9986 para el Conjunto de
datos-2. Las diferentes categorías de currículum como “Contable” o “Profesor”
(Conjunto de datos-1) corresponden a diferentes perfiles laborales. Por lo tanto, la
tarea de clasificación que nos ocupa es clasificar un documento de currículum en uno
de los perfiles laborales en función de las palabras clave que contienen. La tarea es más
desafiante en el caso de Dataset-2, en el que los seis perfiles laborales pertenecen al
dominio de informática/TI, y categorías como “Administrador de bases de datos”,
“Administrador de redes” y “Administrador de sistemas” parecen muy relacionadas.
Dado que un currículum puede contener información útil e irrelevante, se requiere un
mecanismo de filtrado antes de la vectorización de características. Las palabras clave
de élite únicas cumplen este propósito y también logran reducir la dimensionalidad en
gran medida, como se muestra en las Tablas 1 y 2 que comparan el número total de
palabras clave que aparecen en una clase con la cantidad de palabras clave de élite
únicas filtradas. Las nubes derivadas de la clase "Contador" del Conjunto de datos-1 se
muestran en la Fig. 5. El tamaño de las palabras en la nube de palabras indica la
frecuencia de la palabra clave. La nube de palabras construida utilizando las 5084
palabras clave en la Fig. 5 (a) resalta "trabajo", "estado", "profesional", "aplicación",
"capacitación", que no son relevantes para la clase de contador y, por lo tanto,
conducirían a resultados engañosos. Por otro lado, la figura 5 (b), que ilustra la nube de
palabras de 1157 palabras clave de élite únicas, resalta palabras como “marketing”,
“financiero”, cuenta”, etc., que son más relevantes para la categoría “Contable” y
ayudarían a categorización de currículum más efectiva.
36
referencia de diagnóstico convencionales, su alcance sigue siendo limitado,
especialmente en regiones con recursos médicos limitados. La investigación presentada
aprovecha algoritmos de aprendizaje profundo para facilitar la detección temprana de
la EPOC, específicamente dirigida a las radiografías de tórax (CXR). El conjunto de datos
VinDR-CXR anotados clínicamente proporciona la base principal para el entrenamiento
del modelo, complementado con la incorporación del conjunto de datos ChestX-ray14
para el preentrenamiento inicial del modelo. Esta estrategia de conjunto de datos dual
aumenta la generalización y la adaptabilidad del modelo. Entre varias arquitecturas de
redes neuronales convolucionales (CNN) exploradas, el modelo Xception surge como un
líder.
Descargas
Métrica
37
pueden no ser efectivas para detectar las primeras etapas de la EPOC, lo que hace que
los pacientes asintomáticos sean evaluados con menos frecuencia.
El alto costo y la disponibilidad limitada de la espirometría, particularmente en las
regiones de bajos ingresos, retrasan aún más el diagnóstico. Por el contrario, las
radiografías de tórax (CXR) son más asequibles y ampliamente accesibles. Esto ha
estimulado el interés en utilizar radiografías de tórax para desarrollar herramientas de
diagnóstico temprano de la EPOC. Estas herramientas podrían guiar a las personas hacia
intervenciones oportunas, incluidas la detección del cáncer de pulmón y los programas
para dejar de fumar. Con los avances en inteligencia artificial (IA), las técnicas de
aprendizaje profundo (DL) han demostrado ser confiables en numerosas tareas de
imágenes médicas, incluido el análisis de CXR. imágenes. Por ejemplo, ResNet50, una
DArchitecture, funciona bien en visión por computadora y se ha aplicado a diversos
problemas de imágenes médicas.
Además, su capacidad para mitigar el problema del gradiente de desaparición mediante
conexiones de salto lo convierte en una opción atractiva para diagnosticar la EPOC a
partir de imágenes de radiografía de tórax. Los investigadores han explorado
recientemente el uso de modelos DL para diagnosticar la EPOC a partir de imágenes
médicas. Sin embargo, persisten desafíos en la interpretabilidad del modelo, que es
crucial para adoptar estos modelos en entornos clínicos. Para abordar este problema, se
han propuesto técnicas explicables de inteligencia artificial (XAI), como Grad-CAM
(Gradient Class Activation Maps), que proporcionan explicaciones visuales de las
predicciones de los modelos y mejoran la confianza de los médicos en los modelos.
Descripción del conjunto de datos Se utilizaron dos conjuntos de datos para esta
investigación, a saber: El conjunto de datos de rayos X de tórax (CXR) de los Institutos
Nacionales de Salud (NIH), una colección disponible públicamente de más de 110 000
imágenes PA-CXR de 30 805 personas que han sido etiquetadas con uno de Se utilizaron
catorce categorías de enfermedades frecuentes. En esta actualización de ChestX-ray8 se
incluyen seis enfermedades adicionales del tórax, que incluyen edema, enfisema,
fibrosis, engrosamiento pleural y hernia. Las imágenes están comentadas con hasta 14
enfermedades torácicas, incluida la EPOC. Esta anotación integral brinda una excelente
oportunidad para entrenar y evaluar modelos para detectar enfermedades específicas o
múltiples afecciones simultáneamente. Además, el conjunto de datos contiene una
combinación equilibrada de pacientes sanos y aquellos con EPOC, lo que garantiza una
muestra representativa para desarrollar y evaluar el modelo.
Además, la diversidad del conjunto de datos en cuanto a la demografía de los
pacientes, la gravedad de la enfermedad y el equipo de imágenes utilizado para la
adquisición contribuye a la solidez de los modelos entrenados en él, mejorando sus
capacidades de generalización y su potencial para aplicaciones clínicas del mundo real.
El segundo conjunto de datos empleado para validar los modelos es el conjunto de
datos "VinDR-CXR", procedente de dos importantes instituciones médicas de Vietnam.
Consta de más de 100 000 imágenes CXR, con un subconjunto de aproximadamente 18
000 imágenes meticulosamente anotadas por 17 radiólogos experimentados.
38
Estas anotaciones incluyen 22 etiquetas rectangulares específicas para irregularidades
localizadas y seis etiquetas amplias que identifican enfermedades potenciales. La parte
disponible públicamente de este conjunto de datos incluye 30 000 entradas, 15 000 de
las cuales se utilizan para el entrenamiento del modelo y 3000 designadas para pruebas,
como se muestra en la Figura 1. La Figura 2 ilustra una selección de imágenes con
anotaciones detalladas en el cuadro delimitador.
En particular, durante la fase de formación, cada radiografía fue etiquetada de forma
independiente por tres radiólogos, lo que garantiza una rica diversidad de
interpretaciones, mientras que en la fase de prueba se empleó un enfoque de consenso
entre cinco radiólogos para cada imagen. Tanto el subconjunto de capacitación como el
de validación, junto con todas las imágenes anónimas, se proporcionan en formato
DICOM, cumpliendo con los estándares de imágenes médicas y garantizando
coherencia y confiabilidad en la capacitación y evaluación del modelo.
39