0% encontró este documento útil (0 votos)
21 vistas39 páginas

Revista Edgar 8 Vo

El documento detalla la evolución y aplicaciones de la inteligencia artificial (IA) desde sus inicios en la década de 1950 hasta su integración en la vida cotidiana actual, incluyendo avances en robótica, aprendizaje profundo y ética en IA. También se menciona la creación de la Asociación Española para la Inteligencia Artificial (AEPIA) y su impacto en la promoción de la IA en España. Se destacan tendencias futuras en IA, como la inteligencia artificial generalizada y empática, así como la importancia de la transparencia y la equidad en su desarrollo.

Cargado por

rafaelrodas0810
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
21 vistas39 páginas

Revista Edgar 8 Vo

El documento detalla la evolución y aplicaciones de la inteligencia artificial (IA) desde sus inicios en la década de 1950 hasta su integración en la vida cotidiana actual, incluyendo avances en robótica, aprendizaje profundo y ética en IA. También se menciona la creación de la Asociación Española para la Inteligencia Artificial (AEPIA) y su impacto en la promoción de la IA en España. Se destacan tendencias futuras en IA, como la inteligencia artificial generalizada y empática, así como la importancia de la transparencia y la equidad en su desarrollo.

Cargado por

rafaelrodas0810
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

EDGAR’S REVISTA

REVISTA IA CEPA

1
Índice
Aplicaciones de la inteligencia artificial en la vida cotidiana ...................................................... 4
Redes Neuronales.......................................................................................................................... 5
Robótica y Automatización ........................................................................................................... 5
Avances recientes en la Inteligencia Artificial .............................................................................. 6
AEPIA (Asociación Española para la Inteligencia Artificial). ............................................................ 8
Predicción precisa de precios por parte de Double Deep Q-Network ...................................... 11
Un nuevo modelo de aprendizaje profundo para la segmentación del páncreas: Pascal U-Net
...................................................................................................................................................... 14
Verificación de rostros invariante a la edad y de distintas edades mediante aprendizaje por
transferencia................................................................................................................................ 18
FRESHNets: evaluación de la frescura de los alimentos de alta precisión y eficiencia basada
en redes neuronales convolucionales profundas. ..................................................................... 21
La superioridad del ajuste fino sobre el entrenamiento completo para el diagnóstico
eficiente de la EPOC a partir de imágenes de radiografía de tórax........................................... 24
Extrapolación del costo de cultivo de cultivos basada en aprendizaje automático. ................ 27
Clasificación binaria de imágenes de cáncer de piel mediante redes preentrenadas con I-
GWO ............................................................................................................................................. 30
La singularidad se encuentra con la semántica: un novedoso enfoque de bolsa de palabras
semánticamente significativa para hacer coincidir los currículos con los perfiles de trabajo. 33

2
Aprovechar el aprendizaje por transferencia para un diagnóstico eficiente de la EPOC
mediante imágenes de radiografía de tórax y técnicas de inteligencia artificial explicables .. 36

La historia y evolución de la inteligencia artificial es fascinante. Comenzó como


un concepto en la antigüedad, pero su desarrollo moderno se remonta a la
década de 195, con figuras como Alan Turing y John McCarthy. Desde entonces
ha experimentado avances significativos en áreas como el aprendizaje
automático, el procesamiento del lenguaje natural y la visión por computadora.
Hoy en día, la IA está presente en muchas facetas de la vida, desde asistentes
virtuales hasta sistemas de conducción autónoma y diagnósticos médicos
avanzados.
• Década de 1950: Surge el campo de la IA con pioneros como Alan Turing y
du famosa prueba “Prueba de Turing”. John McCarthy acuña el término
“Inteligencia artificial” y organizada la conferencia de Dartmouth en 1956,
considerada el punto de partida del campo.

• Década de 1960: Se desarrollan programas de IA básicos, como el primer


programa de juegos, el “Checker Player” de Arthur Samuel. También se
crean lenguajes de programación específicos para IA como LISP.

• Década de 1970: A pesar de un optimismo inicial, la IA enfrenta críticas y


un periodo de desilusión conocido como “la primera ola de IA”. Se centra
en sistemas expertos basados en reglas.

3
• Década de 1980: La IA experimenta un renacimiento, gracias al aumento
de la potencia computacional y el desarrollo de nuevos enfoques, como
las redes neuronales artificiales y el aprendizaje automático.

• Década de 1990: La IA comienza a integrarse en la vida cotidiana con


aplicaciones como los sistemas de recomendación y los motores de
búsqueda. Además, se popularizan los algoritmos de aprendizaje
supervisado.

Aplicaciones de la inteligencia artificial en la vida


cotidiana
• Asistentes virtuales: Siri, Google Asistente y Alexa utilizan IA para
entender y responder las preguntas de los usuarios.

• Recomendaciones de contenido: Plataformas como Netflix, Spotify y


YouTube utilizan IA para recomendar películas, canciones y videos
basados en preferencias para todo el público.

• Traducción Automática: Herramientas como Google Translate utilizan IA


para traducir cualquier texto de diferentes idiomas.

• Filtros de Spam: Los filtros de correo electrónico utilizan IA para


identificar y filtrar correos no deseados.
• Navegación GPS: Aplicaciones de navegación como Google Maps utilizan
IA para calcular rutas optimas y predecir el tráfico.

4
• Autocompletado de Búsqueda: Los motores de búsqueda como Google
utilizan IA para predecir y completar consultas de búsqueda mientras
escribes.
• Reconocimiento Facial: Aplicaciones de redes sociales como Facebook
utilizan IA para etiquetar automáticamente a las personas en las fotos.

Redes Neuronales
La ética y responsabilidad en la inteligencia artificial se refieren al conjunto de
principios y prácticas que guían el desarrollo, implementación y uso de sistemas
de IA de manera ética y responsable. Esto implica considerar el impacto social,
ético y moral de la IA, asegurando que los sistemas sean justos, transparentes,
seguros y respetuosos con los derechos humanos. También implica la asignación
clara de responsabilidades para mitigar posibles riesgos y garantizar que la IA se
utilice para el beneficio de la sociedad en su conjunto.
La ética y la responsabilidad en la inteligencia artificial abarquen una amplia
gama de consideraciones y desafíos. Algunos temas importantes incluyen:
• Transparencia y explicabilidad: Los sistemas de IA deben ser transparentes
y capaces de explicar sus decisiones y procesos de razonamiento de
manera comprensible para los humanos.
• Equidad y justicia: Es fundamental garantizar que los sistemas de IA no
perpetúen ni amplifiquen sesgos existentes en los datos o en las
decisiones humanas. Se deben implementar medidas para promover la
equidad y la justicia en el desarrollo y el uso de la IA.
• Privacidad y protección de datos: Los sistemas de IA deban respetar la
privacidad y proteger los datos personales de los usuarios. Esto implica
implementar medidas de seguridad sólidas y cumplir con las regulaciones
de privacidad aplicables.

Robótica y Automatización
La Robótica es un campo interdisciplinario que se centra en el diseño,
construcción, operación y uso de robots. La automatización, por otro lado, se
refiere al proceso de hacer que un sistema funcione automáticamente, sin
intervención humana directa. En conjunto, la robótica y la automatización
buscan la eficiencia, la precisión y la seguridad en una amplia gama de
aplicaciones industriales, comerciales y domésticas.

5
La robótica y la autorización son campos fascinantes con un gran impacto en
diversas industrias. Aquí hay algunos puntos clave:
• Robótica: La robótica implica el diseño, construcción y
programación de robots para realizar tareas específicas. Los
robots pueden variar desde simples brazos mecánicos hasta
complejos sistemas con inteligencia artificial y capacidades de
aprendizaje. Se utilizan en industrias como la manufactura, la
medicina, la exploración espacial, la agricultura, entre otras.

• Automatización: Es el proceso de hacer que un sistema o


proceso funciones automáticamente, sin intervención humana
directa. Esto puede lograrse mediante el uso de robots,
software, sensores y actuadores para controlar y monitorear
procesos. La automatización se utiliza en la producción
industrial, la logística, la domótica, los sistemas de transporte,
entre otros.

• Aplicaciones: Aplicaciones la robótica y la automatización tienen


una amplia gama de aplicaciones. En la industria manufacturera
los robots se utilizan para tareas de ensamblaje, soldadura,
pintura, embalaje y manejo de materiales. En la medicina los
robots pueden asistir en cirugías de precisión o en la
rehabilitación de pacientes. En el hogar la domótica
automatizada funciones como la iluminación, la calefacción, la
seguridad y los electrodomésticos

Avances recientes en la Inteligencia Artificial


En los últimos años ha habido avances significativos en el campo de la
inteligencia artificial (IA), impulsados por el desarrollo de nuevas técnicas,
algoritmos y hardware. Algunos de los avances recientes incluyen:
• Aprendizaje profundo: El aprendizaje profundo, una sub brama del
aprendizaje automático, ha sido fundamental en muchos avances
recientes en inteligencia artificial. Las redes neuronales profundas han
demostrado ser especialmente efectivas en tareas como
reconocimiento de imágenes procesamiento de lenguaje natural,
traducción automática y generación de contenido multimedia.

• Inteligencia artificial conversacional: Los sistemas de inteligencia


artificial conversacional, como los asistentes virtuales y los chatbots,

6
han mejorado en su capacidad para comprender y generar lenguaje
natural. Esto ha llevado avances en aplicaciones como el servicio al
cliente automatizado, la atención médica y médica virtual y la
educación asistida por inteligencia artificial.

• Inteligencia artificial en visión por computadora: Los algoritmos de


inteligencia artificial han alcanzado niveles de precisión sin
precedentes en tareas de visión por computadora, como detección de
objetos, seguimiento de objetos, reconocimiento facial y
segmentación semántica. Estos avances tienen aplicaciones de la
seguridad, la vigilancia, el transporte autónomo y la medicina, entre
otros campos.

El futuro de la inteligencia artificial


El futuro de la inteligencia artificial es emocionante y prometedor, con un
potencial para transformar profundamente la sociedad y la economía en
diversas formas. Aquí hay algunas tendencias y posibles desarrollos que
podríamos ver en un futuro de la inteligencia artificial:
• Inteligencia artificial Generalizada: A medida que la investigación
avanza, podríamos ver el desarrollo de sistemas de inteligencia
artificial más generales y flexibles, capaces de realizar una amplia
gama de tareas cognitivas de manera similar a los humanos. Esto
podría llevar avances significativos en áreas como la creatividad, la
resolución de problemas y la toma de decisiones.

• Inteligencia artificial explicativa: A medida que los sistemas de


inteligencia artificial se vuelven más complejos, la capacidad de
comprender y explicar sus decisiones se vuelve crucial. Se espera que
se desarrolle una mayor transparencia Y capacidad de explicación en
los sistemas de inteligencia artificial, lo que ayudará a construir la
confianza en su uso.
• Inteligencia artificial empática: Se está investigando como dotar a los
sistemas de inteligencia artificial con habilidades empáticas, es decir,
la capacidad de comprender y responder a las emociones humanas.
Esto podría tener aplicaciones en campos como la atención médica, la
educación y los servicios de atención al cliente en aplicaciones críticas.

7
• Inteligencia artificial distribuida y Edge computing: Con el crecimiento
de positivos conectados a internet y el internet de las cosas, se espera
que la inteligencia artificial se distribuya en una amplia gama de
dispositivos desde teléfonos inteligentes hasta sensores industriales.
Esto impulsará la necesidad de capacidades de inteligencia artificial
más eficientes y de baja latencia, lo que podría conducir al desarrollo
de técnicas de aprendizaje federado y Edge computing.

AEPIA (Asociación Española para la Inteligencia


Artificial).

En este año se cumplen los primeros cuarenta años de la Asociación Española


para la Inteligencia Artificial (AEPIA), cuarenta años de marcha continuada por el
camino de la Inteligencia Artificial. Desde aquel lejano 1984, en el que un grupo
de investigadores pioneros, liderados por el profesor D. José Cuena, fundador y
primer presidente de AEPIA, vieron la necesidad de unir a toda la comunidad
científica y profesional para dar a conocer la IA, hasta nuestros días, muchas
generaciones han contribuido a la historia de AEPIA construyendo una asociación
con muchos logros y muchos retos aún por delante.
Descargas

8
Métrica

Nacimiento de AEPIA
Un grupo de investigadores españoles, que trabajaban en diversos campos de la
Inteligencia Artificial (IA), coinciden en Karlsruhe (Alemania) en agosto de 1983, durante
la celebración del congreso International Joint Conferences on Artificial Intelligence
(IJCAI1983). En ese momento se estaba gestando una asociación de IA a nivel europeo,
y este grupo de investigadores pioneros considera necesario la organización a nivel
español, para promover la comunicación entre los investigadores de IA en España y
para tener una representación en la asociación que se estaba gestando a nivel europeo.
Inteligencia Artificial 74 (2024) En el otoño del 83, los investigadores D. José Cuena, D.
Francisco Garijo y Dª Felisa Verdejo lideraron la iniciativa de contactar con profesionales
académicos y de la industria, para proponerles la creación de una asociación. A su vez
buscaron patrocinadores para la organización de las jornadas “Inteligencia Artificial,
Introducción y situación en España”, consiguiendo el patrocinio por parte de la
Fundación para el Desarrollo de la función social de las Comunicaciones (Fundesco). El
2,3 y 4 de Julio de 1984 se celebraron en los locales de la estación de satélites de
Telefónica en Buitrago, unas jornadas técnicas con el objetivo de analizar la situación de
la Inteligencia Artificial en España, y abordar la creación de la Asociación Española Para
la Inteligencia Artificial (AEPIA).

9
Logos de AEPIA
A estas jornadas asistieron un total de cuarenta participantes, procedentes del ámbito
académico, de la empresa y de la administración. Se presentaron las siguientes áreas de
investigación: Sistemas Expertos, Comprensión del Lenguaje Natural, Representación y
Adquisición de Conocimiento, Robótica, Visión por Computador y Entornos de
Programación para la IA. El contenido de las jornadas dio lugar al libro “Inteligencia
Artificial. Introducción y situación en España”, publicado por FUNDESCO donde se
presenta un panorama de la investigación en IA en España. Las jornadas finalizaron con
una sesión dedicada a la creación de la AEPIA, en la que se aprobó el proyecto de
estatutos, y se acordó el nombramiento de una comisión gestora para la puesta en
marcha de la misma y para la formalización de los tramites oficiales. Esta comisión
gestora estuvo formada por Dª Carme Torras, D. José Cuena, Dª Felisa Verdejo y D.
Francisco Casa cuberta, en representación de los cuatro núcleos de investigación en IA
que fueron identificados en ese momento: Barcelona, Madrid, País Vasco y Valencia. La
Asociación Española Para la Inteligencia Artificial (AEPIA) se registró oficialmente el 31
de agosto del 1984 en el Ministerio del Interior, y una semana después, AEPIA fue
aceptada como miembro español en la Asociación Europea de Inteligencia Artificial
(ECCAI, European Committee for Coordination of Artificial Intelligence) que se celebró
desde el 5 hasta el 7 de septiembre de1984 en Pisa.

Nacimiento de “Inteligencia Artificial”, Revista Iberoamericana de Inteligencia Artificial

Como parte de la labor de divulgación, desde la dirección de AEPIA hubo una


colaboración muy activa con distintas editoriales para publicar tanto libros como
números especializados en revistas que en ese momento tenían relevancia y difusión en
el ámbito profesional, involucrando a los miembros de la asociación. La primera
publicación que AEPIA confeccionó durante la presidencia de D. José Cuena fue un
boletín cuatrimestral que se enviaba por correo a los socios. El número 1 de este
boletín, correspondiente al invierno del 85, incluyó el siguiente sumario: Presentación,
Noticiario, Comentario bibliográfico, lista de socios, Calendario internacional y nacional.
Los boletines siguientes incluyen además las actas de las asambleas y las ponencias de
las jornadas técnicas, y siguieron publicándose de forma regular hasta finales de 1992.
En otoño de 1994 y con la presidencia de D. Francisco Garijo, surgió un nuevo ‘Boletín
de la AEPIA’ impulsado por D. Federico Barber, vocal de la Junta Directiva. La edición se
efectuaba desde la Universidad Politécnica de Valencia y la distribución a los socios se

10
hacía desde Madrid y era financiada por telefónica I+D. En el número 4 (Otoño’95) se
formalizó la publicación con un registro de ISSN: 1135-6669. A finales de 1996, y
contrastándose la creciente calidad de la publicación, se decidió ponerle un nombre de
mayor impacto, ‘Inteligencia Artificial, Revista Iberoamericana de Inteligencia Artificial’
registrándose con ISSN: 1137-3601. D. Federico Barber fue el editor-fundador de la
revista desde el primer número publicado en el invierno de 1997 hasta 2001. Este
primer número tuvo un nuevo diseño elaborado por D. Juan Carlos Carril, del equipo de
diseñadores de Telefónica I+D.
La portada de la revista volvió a cambiar en diciembre de 2003, con un diseño de D.
Youn Shin Cho a un solo color para facilitar la impresión, con un troquel incluido para
permitir su reutilización y distribución desde [Link]ón de las sucesivas
portadas del Boletín de la AEPIA en 1986, 1994 y 1995. En la Asamblea General de 1999
se decidió incrementar la promoción de la revista y realizar un portal electrónico propio,
que Dª Beatriz Barros y su equipo en la UNED hicieron realidad en el 2000,
registrándose la versión digital con el ISNN 1988-3064. El portal sucesivamente
actualizado bajo la plataforma Open Journal Sesten (OJS) ha evolucionado hasta su
versión actual donde se facilita el proceso de gestión, la evaluación y descarga gratuita
de las publicaciones. Sucesivos portales de la revista Inteligencia Artificial, hasta su
portal actual en [Link] la presidencia de D. Federico
Barber (2001- 2007), impulsaron la revista nuevos editores: A partir del número 16, Dª
Ana García Serrano de la Universidad Politécnica de Madrid.

Predicción precisa de precios por parte de Double


Deep Q-Network
Durante más de varias décadas, los datos de series de tiempo han estado en el centro
de atención de los académicos para predecir los precios futuros de los mercados,
siendo el más fundamental y desafiante de ellos la predicción del precio del mercado de
valores. Es de gran importancia señalar que los algoritmos con menos errores en las
predicciones de precios son más aplicables. Se han sugerido más métodos para la
predicción de precios en los mercados de valores: análisis de datos de series de tiempo,
análisis matemático y estadístico, procesamiento de señales, reconocimiento de
patrones y aprendizaje automático.
Una de las desventajas de los métodos antes mencionados es no reconocer cambios
repentinos de precios, en este sentido, experimentar más errores es la consecuencia de
tal desventaja. En este sentido, para resolver el error, se ha empleado el algoritmo
DDQN, que consiste en redes neuronales profundas que incluyen capas LSTM-CNN.
Frente a las fluctuaciones de precios, el agente tiene el privilegio de tener un mejor
rendimiento al emplear las ventajas de las capas LSTM-CNN. En esta investigación, el
algoritmo se ha aplicado al mercado de oro iraní, incluidos seis tipos diferentes de oro,
desde 2009 hasta 2020. Los resultados revelan que el método dado es más preciso en

11
comparación con otros métodos sugeridos para hacer frente a cambios repentinos en
los precios.
Descargas

Métrica

Recientemente, el aprendizaje automático ha cobrado protagonismo en diferentes


aspectos, uno de los más importantes es el de las acciones. El marketing y la
negociación de acciones. La predicción exacta del precio de las acciones es un gran
desafío para los analistas y los inversores financieros. inversores. La predicción está
ligada a las circunstancias políticas y a la situación económica mundial., reportes
financieros, y el volumen de negocio financiero de las empresas. La oscilación del precio
de las acciones ha sufrido algunos Cambios dramáticos debido a los cambios globales y
la forma de actuar de los inversores.
En este sentido, para maximizar las ganancias y mantener la pérdida de la tasa mínima,
algunos enfoques técnicos para la predicción del valor del precio de las acciones El
mercado, considerando las tendencias anuales recientes, puede ser muy beneficioso
para tener los cambios del mercado de valores bajos. escrutinio. En comparación con
los enfoques antiguos, el aprendizaje y la toma de decisiones en diversos lapsos de
tiempo periódicos son de ladesafíos fundamentales en los mercados de valores en el
sentido de que las técnicas de aprendizaje automático han mejorado la eficiencia de
proceso de predicción. (60 a 86%).
Para enfrentar tales desafíos, se puede mencionar que el aprendizaje por refuerzo
como un subSe ha presentado una rama del aprendizaje automático para aliviar estos
desafíos. El enfoque ha sido inspirado en la teoría biológica acuñada por Schultz, W.,
Dayan, P. y Montague, P. R en 1997. Rienda profunda el aprendizaje por refuerzo, por

12
otro lado, ha fusionado el aprendizaje profundo con el aprendizaje por refuerzo, lo que
da como resultadoSimulación de la percepción de los humanos y metodologías de
aprendizaje. La red neuronal profunda tiene algunas ventajas y contras, en cuanto al
primero, tener una fuerte percepción. Se puede destacar la capacidad de extracción de
características y, para el orgúltimo, siendo indeciso para la decisión- Se pueden destacar
los procesos de fabricación.
Para eliminar esta deficiencia, el aprendizaje por refuerzo ha cobrado importancia para
eliminar esos puntos débiles. En profundo-proceso de aprendizaje. Mnih enuno de los
protagonistas que sugirieron una red Q profunda, una red de redes neuronales
convolucionales en aprendizaje de refuerzo. La red de doble Q fue acuñada por Hasselt
y conducida a proporcionar amortiguación en Medio ambiente. Siguiendo esta línea, se
proporcionó Double DQN, lo que dio como resultado dos sub modelos dentro de
mejorar la eficiencia del agente en el entorno. En este estudio, se ha utilizado un
aprendizaje de refuerzo profundo especial presentado. Es un algoritmo en el que la
combinación se han empleado redes neuronales LSTM y CNN para la predicción del
precio del oro, que los académicos no habían destacado antes. Para alcanzar este
objetivo, un agente determinado emplea una red neuronal profunda que incluye LSTM-
Capas CNN. Los méritos del LSTMCRed neuronal NN las capas están aprendiendo
muchos-registros de dependencia de términos y varias extracciones de características
para una interpretación precisa y concisa predicción del agente.
Después de procesar el conjunto de datos, realizamos el examen paramétrico de cada
conjunto de datos. Tiene la implicación de tener certeza sobre el tamaño de la ventana
y el procedimiento de división basado en Kfold para aumentar la precisión del algoritmo
y lograr una mejor predicción. En la tabla 1, después de algunos experimentos, hemos
logrado las características más efectivas de los datos que tienen más influencia en el
proceso de predicción. En particular, en todos los experimentos, la salida se presenta
como 1 de forma predeterminada. En esta sección, el modelo propuesto en este
estudio, DDQN con red neuronal LSTM-CNN, se prueba mediante dos modelos a
continuación: 1. DDQN con CNN-DENSE Red neuronal 2. Modelo supervisado con capa
LSTM-CNN. En este caso, notamos que hay varios factores que contribuyen a maximizar
la precisión de nuestro agente, resumidos como:

13
Existen muchos algoritmos en la predicción del precio del mercado de valores y han
tenido resultados notables. Sin embargo, se ha prestado menos atención al aprendizaje
por refuerzo profundo, especialmente al DDQN. Hemos intentado aplicar diferentes
experimentos mediante el algoritmo propuesto. Hemos logrado resultados notables
combinando LSTM y CNN en la red neuronal DDQN.

Se observa fácilmente que la perdición en cambios repentinos de precios impactantes y


factores externos en el precio del oro se logra con una precisión mucho mayor, de
modo que los inversores puedan operar con más confianza. Otras ventajas del modelo
propuesto son una función mucho mejor del algoritmo que enfrenta la oscilación de
precios, que tiene una mejor precisión de predicción y que maneja cambios repentinos
e impactantes de precios en comparación con otros algoritmos. Hemos logrado hasta
este punto que la precisión obtenida por este algoritmo se pueda aplicar a un sistema
dinámico de negociación y predicción. Ampliar dicho sistema será de gran ayuda para
todas las actividades del mercado de valores, lo que se discutirá en nuestras futuras
investigaciones.

Un nuevo modelo de aprendizaje profundo para la


segmentación del páncreas: Pascal U-Net
Una segmentación de órganos automatizada, robusta y confiable a partir de imágenes
del abdomen es un problema crucial tanto en el análisis cuantitativo de imágenes como
en el diagnóstico asistido por computadora. En particular, la segmentación automática
del páncreas a partir de imágenes de TC de abdomen es la tarea más desafiante que se
basa en dos aspectos principales (1) alta variabilidad en la anatomía (como forma,
tamaño, etc.) y ubicación en diferentes pacientes (2) bajo contraste con los tejidos
vecinos. Debido a estas razones, el logro de altas precisiones en la segmentación del
páncreas es un problema difícil de segmentación de imágenes.
En este artículo, proponemos un nuevo modelo de aprendizaje profundo que es un
modelo basado en una red neuronal convolucional llamado Pascal U-Net para la
segmentación del páncreas. El rendimiento del modelo propuesto se evalúa en la base
de datos de TC de páncreas de The Cancer Imaging Archive (TCIA) y el conjunto de datos
de TC de abdomen que se toma del Departamento de Radiología de la Facultad de
Medicina de la Universidad de Selcuk. Durante los estudios experimentales, se utiliza el
método de validación cruzada k-fold. Además, los resultados del modelo propuesto se
comparan con los resultados de U-Net tradicional. Si se comparan los resultados
obtenidos por Pascal U-Net y el U-net tradicional para diferentes tamaños de lote y
número de pliegues, se puede observar que los experimentos en ambos conjuntos de
datos validan la efectividad del modelo Pascal U-Net para la segmentación del páncreas.
Descargas

14
Métrica

Materiales y métodos
La Universidad Pascal-Se presenta el modelo de red propuesto para la segmentación del
páncreas y las características del conjunto de datos utilizados. En esta sección se detalla
el rendimiento del Pascal U propuesto. El modelo Net se probó en dos conjuntos de
datos diferentes y los resultados se compararon con los tradicionales. Una nacional-
Modelo de red.
Características de los conjuntos de datos
En este estudio se utilizaron dos conjuntos de datos diferentes que consisten en
imágenes de TC abdominal. El primero de ellos es el conjunto de datos de acceso
público. Conjunto de datos de TC de páncreas disponible extraído de la base de datos
The Cancer Imaging Archive (TCIA). El otro es un conjunto de datos que consiste en
imágenes de TC abdominal tomadas del Departamento de Radiología de la Facultad de
Medicina de la Universidad de SelcukHospital (SUMFH). Debido a la tarjeta gráfica
limitada de la computadora utilizada en el estudio, los conjuntos de datos para el
aprendizaje profundoLos modelos fueron creados por seSeleccionar un corte en el que
se pudiera segmentar el páncreas de cada paciente en ambos conjuntos de datos. El
primer conjunto de datos utilizado en el estudio es el conjunto de datos de TC de
páncreas tomado de la base de datos TCIA [13]. En este conjunto de datos tomado de
los Institutos Nacionales de Salud Clin en el Centro Médico de los Estados Unidos, hay
82 centros de contraste. Mejorado 512Imágenes de TC de 512 píxeles tomadas a 53
hombres y 27 mujeres de entre 18 y 76 años. Una imagen de TC original en el TCIA
conjunto de datos, la versión etiquetada de esta imagen, y el máscara del segmento
deseado la acción se puede ver en la Figura 1.

15
Las imágenes utilizadas como segundo conjunto de datos en el estudio se crearon a
partir de imágenes de TC abdominal tomadas del Departamento de Radiología del
Hospital de la Facultad de Medicina de la Universidad de Selcuk (SUMFH). Se tomaron
58 imágenes de TCde 30 hombres y 28 mujeres en los datos SUMFHet. Todos los
pacientes fueron examinados en un128-fila dual-fuente TC sistema (Somatom Definition
Flash; Siemens Healthcare, Forchheim, Alemania), en el que se encuentran 2 x los tubos
de rayos X eran arreglado en un95-grados de ángulo entre sí y contenidos2 juegos de
detectores. El examen pro el tocol fue el siguiente:120 kVp, matriz 512 x 512, 64 x 0,6-
Colimación en mm. Las imágenes de este conjunto de datos han sido etiquetadas por
un radiólogo quien es un experto en su campo en el Departamento de Radiología del
SUMFH. La Figura 2 muestra una imagen de TC original en el datos SUMFH conjunto, la
versión etiquetada de esta imagen y la máscara de la imagen.

Preprocesamiento
Determinación del ROI
Antes de que las imágenes de cada conjunto de datos se entreguen a la red de
aprendizaje profundo, se realizan procesos de preprocesamiento que consisten en se
aplican varios pasos. Como se puede ver en la Figura 3, en las regiones de interés (ROI)
donde se puede localizar el páncreas s e determinaron los detectados y se recortaron
las imágenes con dimensiones de 512 × 512 píxeles. De esta manera, las áreas donde no
se escaneó el páncreas y el tamaño de las imágenes en todo el conjunto de datos
reducido a 256 × 256 píxeles. Por lo tanto, las zonas donde no hay páncreas no se ven
afectadas por resultados de la segmentación y esto es para permitir una mayor rapidez
formación y procesamiento demás imágenes al mismo tiempo durante el entrena.

16
17
Verificación de rostros invariante a la edad y de
distintas edades mediante aprendizaje por
transferencia
La integración de la tecnología de verificación facial se ha vuelto indispensable en
numerosos sistemas de software de seguridad y protección. A pesar de sus
prometedores resultados, el campo de la verificación facial enfrenta desafíos
significativos debido a las disparidades relacionadas con la edad. Las características
faciales humanas sufren transformaciones sustanciales con el tiempo, lo que lleva a
diversas variaciones que incluyen cambios en la textura facial, la morfología, el vello
facial y la adopción de anteojos. Este estudio presenta una metodología pionera para la
verificación facial de diferentes edades, que utiliza técnicas avanzadas de aprendizaje
profundo para extraer características faciales resistentes y distintivas que son menos
susceptibles a las fluctuaciones relacionadas con la edad. El proceso de extracción de
características combina características hechas a mano como el patrón binario
local/histograma de gradientes orientados con características profundas de las redes
MobileNetV2 y VGG-16. Como la textura de la piel facial define la característica
relacionada con la edad, se prefieren los conocidos extractores de características de
textura como LBP y HoG. Estas características se concatenan para lograr la fusión, y las
capas posteriores las afinan. La validación experimental que utiliza el conjunto de datos
de celebridades de diferentes edades demuestra una eficacia notable, logrando una
precisión del 98,32%.
Descargas

Métrica

18
El reconocimiento facial representa una tecnología de identificación biométrica que
surgió como una herramienta fundamental en la autenticación de identidad y encuentra
una amplia utilidad en varios dominios, incluidos la aplicación de la ley, los procesos de
verificación de identidad y seguridad medidas. La principal diferenciación entre la
verificación facial y el reconocimiento facial está en la tecnología selección de
cualquiera de los dos-a-uno o uno-coincidencia de varios. La verificación facial se
emplea con el objetivo de comprobar la autenticidad de una identidad declarada del
individuo. El proceso de verificación facial implica la identificación y cuantificación de
características faciales dentro de una imagen. Con el tiempo, varias causas como la
aparición de arrugas, aumento de peso y proliferación de vello facial, uso de gafas y
otros los elementos pueden inducir alteraciones notables en la textura y el contorno de
los rostros humanos. Por lo tanto, la verificación facial plantea un reto problema
desafiante.

La utilización de la verificación facial es frecuente en el proceso de autenticar a los


individuos identidades. Cruz-cara de edad verificación ha ganado atención significativa
de la investigación como desempeña un papel crucial en escenarios como localizar a
niños desaparecidos después de un tiempo considerable o identificar a personas con
una brecha sustancial entre imágenes, a menudo relevantes para comprender el largo-
criminales fugitivos. Cruz-verificación de edad y rostro es primariamente se ocupa de la
tarea de identificar a una persona en diferentes puntos temporales basándose en
imágenes capturadas en distintos momentos siglos. Con La verificación facial ss-age que
utiliza características profundas implica la aplicación de modelos de aprendizaje
profundo para extraer características faciales distintivas de imágenes de individuos que
abarcan varios grupos de edad. Estas características extraídas luego se utilizan para
determinar la legitimidad de dos imágenes, discerniendo si representan al mismo
individuo o no.
El marco general de la Cruz-La verificación facial de edad (CAFR) comprende una serie
de pasos: recopilación de datos para recopilar imágenes faciales que abarquen diversos
grupos de edad. Procesamiento electrónico para estandarizar y alinear estas imágenes,
características Extracción utilizando modelos de aprendizaje profundo como CNN para
capturar rasgos faciales distintivos, estimación de edad opcional para evaluar las
disparidades de edad, verificación mediante la comparación de los vectores de
características de dos caras utilizando métricas de similitud, umbral configuración para
determinar si las caras pertenecen al mismo individuo, evaluación para medir el
rendimiento del sistema, optimización para la precisión y eficiencia, y eventual
implementación en aplicaciones como sistemas de seguridad y envejecimiento análisis
de la progresión, lo que convierte al CAFR en una herramienta esencial para un
reconocimiento preciso en diferentes rangos de edad.
Profundo el aprendizaje de la arquitectura encuentra aplicación en la vida personal
identificación mediante redes siamesas, clasificación de video, reconociendo el
movimiento-CCT difusos basados en aprendizaje profundo y de transferencia,
clasificación del cáncer de mama, Clasificación de hojas de plantas, aprendizaje por
transferencia para múltiples-paso previsiones futuras en series temporales mensuales.
Figura1 muestra el marco general de Cross Age Arquitectura de verificación facial.

19
Conjunto de datos
El conjunto de datos de celebridades de todas las edades comprende un conjunto
completo de imágenes que representan celebridades en diversas etapas de sus vidas. El
conjunto de datos se emplea con frecuencia en la evaluación de algoritmos
relacionados con tareas como la estimación de la edad, el reconocimiento facial y la
verificación facial. El conjunto de datos CACD comprende un total de 163.446 imágenes
extraídas de Internet, en las que aparecen 2.000 celebridades distintas. El rango de
edad de estos individuos va desde los 14 a los 62 años. El contenido visual se adquirió
de fuentes de acceso público, incluidas imágenes fijas de películas, eventos de alfombra
roja y cuentas de redes sociales. En la Figura 2 se muestran ejemplos de imágenes del
conjunto de datos. Figura 2. Imágenes de muestra de la base de datos CACD.

En conclusión, este estudio aborda un desafío crucial en el campo de la verificación


facial al abordar las disparidades relacionadas con la edad, que durante mucho tiempo
han planteado obstáculos importantes para los sistemas de reconocimiento precisos.
Aprovechando técnicas de aprendizaje profundo de vanguardia, nuestra metodología es
pionera en un enfoque novedoso para la verificación facial entre edades. Al extraer
rasgos faciales resistentes y distintivos que son menos susceptibles a las fluctuaciones
relacionadas con la edad, hemos mejorado significativamente la confiabilidad y
precisión de la tecnología de verificación facial. Nuestro enfoque combina de manera
única características artesanales como el patrón binario local (LBP) y el histograma de
gradientes orientados (HoG) con características profundas extraídas de redes de última
generación como MobileNetV2 y VGG-16.

20
FRESHNets: evaluación de la frescura de los
alimentos de alta precisión y eficiencia basada en
redes neuronales convolucionales profundas.
La clasificación de la frescura de los alimentos es una preocupación creciente en la
industria alimentaria, principalmente para proteger la salud del consumidor y prevenir
enfermedades e intoxicaciones por el consumo de alimentos en mal estado. Con la
intención de dar un paso significativo hacia la mejora de la seguridad alimentaria y las
medidas de control de calidad en la industria, este estudio presenta dos modelos
basados en el aprendizaje profundo para la clasificación de la frescura de frutas y
verduras: un modelo robusto y un modelo eficiente. La evaluación del rendimiento de
los modelos muestra resultados notables; en términos de precisión, el modelo robusto
y el modelo eficiente alcanzaron el 97,6% y el 94,0% respectivamente, mientras que en
términos de puntuación del Área bajo la curva (AUC), ambos modelos alcanzaron más
del 99%, con una diferencia en el tiempo de inferencia entre cada modelo sobre 844
imágenes de 13 segundos.

Descargas

Métrica

21
La clasificación de la frescura de frutas y verduras es una preocupación fundamental en
la industria alimentaria, que influye en la salud del consumidor, los hábitos de compra y
los precios de mercado. La llegada de la visión por computadora y el aprendizaje
automático ha facilitado la creación de algoritmos para la detección y el reconocimiento
automatizados de objetos. Estas técnicas han encontrado aplicaciones en la industria
procesadora de frutas, donde la categorización y clasificación de la frescura de la fruta
son cruciales para ofrecer productos de calidad superior. Las frutas son vulnerables a las
infecciones virales y fúngicas, que ejercen presión económica sobre el sector agrícola.
La clasificación manual de fruta en función de su calidad requiere mucha mano de obra.
Se han realizado varios estudios sobre la aplicación de la Inteligencia Artificial (IA) en la
identificación y evaluación de la calidad de la fruta. Goyal & Verma (2023) desarrollaron
un sistema basado en IA para la identificación de frutas y detección de calidad
utilizando el sistema de detección de objetos YOLOv5, que funciona en dos etapas:
identificación de frutas y evaluación de calidad. El conjunto de datos utilizado en esta
investigación consta de 10.545 imágenes de cuatro frutas diferentes (manzanas,
plátanos, naranjas y tomates) categorizadas según su calidad. Anupriya (2022) aplicó
máquinas de vectores de soporte (SVM) y la arquitectura VGG-16 a un conjunto de
datos de imágenes de manzanas para predecir la calidad de la fruta, donde los
resultados mostraron que la arquitectura VGG-16 superó a la SVM en términos de
precisión, lo que confirma que el aprendizaje profundo puede ser superior al
aprendizaje automático en tareas de visión por computadora.
Estos estudios destacan el potencial de la IA para revolucionar el proceso de evaluación
de la calidad de la fruta. Ren. X et al. (2023) desarrollaron un sistema de nariz
electrónica basado en una red neuronal convolucional (CNN) para la clasificación de la
frescura de los alimentos. El sistema, que constaba de un conjunto de sensores de gas
sensibles y un circuito integrado CMOS, tomó exposiciones fijas en intervalos
específicos bajo diferentes condiciones de gas, lo que permitió extraer características
de series temporales de las señales del sensor que se utilizaron para identificar
diferencias sutiles en los olores de los alimentos. en diferentes niveles de frescura. El
sistema logró una precisión de clasificación del 97,3 % para 20 tipos de alimentos, con
una mejora del 6,5 % después de implementar la extracción de características de series
temporales. Reconocer las importantes contribuciones de la IA a la clasificación de la

22
frescura de los alimentos, que tiene profundas implicaciones para diversas industrias y
afecta directamente los beneficios y beneficios para el consumidor. seguridad, este
estudio tiene como objetivo desarrollar una solución para la clasificación multi clase de
frutas y verduras en función de su frescura utilizando técnicas de aprendizaje profundo.
El conjunto de datos utilizado en este estudio consta de 18 clases diferentes, incluidas
nueve categorías de frutas y verduras frescas y nueve categorías de sus contrapartes en
mal estado.

Comparación de condiciones frescas y podridas


Al comparar las imágenes de frutas y verduras frescas y podridas en las Figuras 3 y 4, se
puede ver que la mayor diferencia está en términos de brillo y alta opacidad, mientras
que las frutas y verduras frescas tienen un brillo y color más intenso. Las frutas y
verduras podridas tienen colores oscuros con menos brillo y opacidad. En algunos casos
predominantes, se ha observado que las frutas y verduras podridas presentan un relieve
más pronunciado en comparación con sus homólogas frescas. Esto se debe
principalmente a la descomposición de su textura.

La llegada de los sistemas inteligentes ha revolucionado la industria alimentaria,


mejorando su gestión, desarrollo y sostenibilidad al tiempo que reduce costes. Este
estudio presenta el desarrollo de dos modelos predictivos para la clasificación de frutas
y verduras frescas y perecederas, aprovechando el poder de las redes neuronales
convolucionales profundas, el aprendizaje por transferencia y la arquitectura Xception
previamente entrenada.
El robusto modelo TL demostró un rendimiento notable, logrando aproximadamente un
97,6 % de exactitud, precisión, recuperación y puntuación F1. cuando se evaluaron más
de 844 imágenes con un tiempo de inferencia de 15 segundos. Por otro lado, el
eficiente modelo XICNN mostró una eficiencia impresionante, logrando
aproximadamente el 94% para cada métrica evaluada en solo 2 segundos de inferencia.

23
En particular, ambos modelos lograron una puntuación AUC de aproximadamente 99 %,
lo que indica su excelente rendimiento. El rendimiento observado de los modelos fue
posible gracias al ajuste de hiperparámetros utilizando Keras Tuner, una devolución de
llamada de reducción de la tasa de aprendizaje y la incorporación de técnicas de
normalización. Los resultados de datos no vistos subrayan la confiabilidad de ambos
modelos, y cada modelo muestra superioridad en rendimiento o eficiencia, lo que
demuestra su potencial para aplicaciones prácticas en la industria alimentaria.

La superioridad del ajuste fino sobre el


entrenamiento completo para el diagnóstico
eficiente de la EPOC a partir de imágenes de
radiografía de tórax
Esta investigación investiga el uso del aprendizaje profundo para diagnosticar
enfermedades pulmonares como la enfermedad pulmonar obstructiva crónica (EPOC)
mediante radiografías de tórax (CXR). El estudio compara el impacto del aprendizaje
profundo en la mejora de estos diagnósticos comparando el rendimiento de los
modelos entrenados desde cero con los mejorados mediante el ajuste fino de
arquitecturas establecidas como InceptionV3, ResNet50 y VGG-19. El estudio reveló que
el ajuste fino de los modelos preentrenados ofrece beneficios significativos:
convergencia más rápida, estabilidad mejorada y mayor precisión. Se descubrió que las
técnicas de aumento de datos son particularmente útiles cuando se trabaja con
conjuntos de datos limitados o desequilibrados. Un modelo CNN personalizado, Iyke-
Net, mostró resultados prometedores cuando se ajustó. Curiosamente, se observó que
los modelos que utilizan imágenes en escala de grises superaron a los que utilizan
imágenes en color en la clasificación de enfermedades, lo que sugiere que la
información del color podría ser menos crítica de lo que se pensaba anteriormente para
ciertos procedimientos de diagnóstico. El estudio enfatiza la importancia de equilibrar la
complejidad del modelo con la eficiencia computacional y la precisión del diagnóstico.
Descargas

24
Métrica

La rápida evolución del análisis de imágenes médicas (MIA) se ha visto impulsada


significativamente por la integración de técnicas innovadoras de inteligencia artificial
(IA). En este contexto, el aprendizaje por transferencia (TL) se erige como un método
notable que ofrece claras ventajas en MIA, especialmente cuando los datos son
limitados. Esta técnica es particularmente crucial para abordar desafíos como la escasez
de datos etiquetados y las altas demandas computacionales de los modelos de
aprendizaje profundo. TL aprovecha los modelos previamente entrenados, que
normalmente se entrenan en conjuntos de datos extensos como ImageNet. Al utilizar
estos modelos, el proceso se vuelve eficiente a la hora de extraer características
destacadas de imágenes médicas, evitando así las extensas necesidades
computacionales de entrenar modelos profundos desde cero. Esta eficiencia se vuelve
aún más significativa en escenarios médicos donde los datos especializados son
limitados. Las enfermedades pulmonares, siendo la enfermedad pulmonar obstructiva
crónica (EPOC) un excelente ejemplo, presentan un problema de salud global
apremiante.

El diagnóstico preciso y temprano de la EPOC y las afecciones relacionadas es vital,


pero a menudo se ve obstaculizado por las complejidades de las imágenes médicas y las
variaciones en las manifestaciones de la enfermedad. TL proporciona una vía
prometedora para mejorar la precisión del diagnóstico de tales condiciones, dada su
capacidad para aprovechar grandes cantidades de datos generalizados para tareas
especializadas. Sin embargo, la mera aplicación de TL no garantiza el éxito. Es

25
imperativo adaptar los modelos previamente entrenados al dominio médico específico,
ajustar los parámetros para un rendimiento óptimo y garantizar que las decisiones de
los modelos puedan interpretarse y justificarse, especialmente en aplicaciones médicas
críticas. TL está ganando reconocimiento como una herramienta central para acelerar la
creación y aplicación de instrumentos de diagnóstico basados en IA en la atención
sanitaria, en particular para enfermedades como la EPOC.
Adquisición y preprocesamiento del conjunto de datos Imágenes sin ruido y de alta
resolución caracterizan el conjunto de datos NIH Chest Xray 14 utilizado en este
estudio, lo que elimina la necesidad de mejoras adicionales en la calidad de la imagen.
No obstante, para garantizar la resiliencia y adaptabilidad del modelo, se llevaron a
cabo pasos de preprocesamiento específicos. Esto implicó reescalar y normalizar las
imágenes. Durante el entrenamiento, el aumento de datos se volvió crucial. Las
imágenes se sometieron a rotaciones aleatorias de 30 grados y giros de 25 grados tanto
vertical como horizontalmente, una metodología derivada de investigaciones
anteriores. La Tabla 1 proporciona una descripción detallada de los parámetros
asociados con estas medidas de preprocesamiento.
Este estudio subrayó la importancia de ajustar las CNN previamente entrenadas, como
InceptionV3, ResNet50 y VGG19, para mejorar el diagnóstico de EPOC mediante
imágenes de CXR. Estos modelos de aprendizaje profundo mostraron una clara ventaja
sobre los modelos de aprendizaje automático tradicionales, especialmente en tareas
que requieren extracción de características complejas de imágenes médicas. Una
relevancia clave fue el papel fundamental del aumento de datos para reforzar el
rendimiento, particularmente cuando se trata de conjuntos de datos médicos limitados
o desequilibrados. Los hallazgos sugieren que los modelos bien ajustados pueden lograr
resultados encomiables, a menudo superando a los modelos entrenados desde cero,
pero con demandas computacionales reducidas. Además, lograr un equilibrio entre la
complejidad del modelo, los recursos computacionales y la precisión del diagnóstico
surgió como un aspecto novedoso de esta investigación. Los estudios futuros se
centrarán en el potencial de la interpretabilidad del modelo, garantizando procesos de
toma de decisiones más transparentes. Explorar diferentes estrategias de aumento de
datos e integrar comentarios clínicos del mundo real puede perfeccionar aún más estos
modelos. La evolución continua de las arquitecturas de CNN presenta oportunidades
para probar modelos más nuevos que podrían ofrecer una precisión diagnóstica aún
mejor para la EPOC y otras afecciones médicas.

26
Extrapolación del costo de cultivo de cultivos basada
en aprendizaje automático.
Es importante comprender la relación entre los gastos operativos, como mano de obra,
semillas, riego, insecticidas, fertilizantes y estiércol, necesarios para el cultivo de
cultivos. Un costo preciso para el cultivo de cultivos puede ofrecer información vital
para la toma de decisiones agrícolas. El objetivo principal del estudio es comparar las
técnicas de aprendizaje automático (ML) para medir las relaciones entre las
características de los costos operativos para predecir los costos de cultivo de cultivos
antes del inicio de la temporada de crecimiento utilizando el conjunto de datos

27
proporcionado por el Ministerio de Agricultura y Bienestar del Agricultor del Gobierno
de la India.
Este documento describe varias técnicas de regresión de ML, compara varios algoritmos
de aprendizaje y determina los algoritmos de regresión más eficientes en función del
conjunto de datos, la cantidad de muestras y los atributos. El conjunto de datos
utilizado para predecir el costo con 1680 instancias incluye costos variables para 14
cultivos diferentes durante 12 años (2010-2011 a 2021-2022). Se consideran diez
algoritmos de ML diferentes y se predice el costo del cultivo de cultivos. Los resultados
de la evaluación muestran que las regresiones Random Forest (RF), Decision Tree (DT),
Extended gradient boosting (XR) y K-Neighbours (KN) brindan un mejor rendimiento en
términos de coeficiente de determinación (R2), error cuadrático medio (RMSE) y tasa de
error absoluto medio (MAE) durante el entrenamiento y el tiempo de prueba. Este
estudio también compara diferentes técnicas de ML y mostró diferencias significativas
utilizando la prueba de análisis estadístico de varianza (ANOVA).

Descargas

Métrica

La agricultura es la práctica de cultivar plantas y cuidar animales. Además de contribuir


a la creación de alimentos, la agricultura también genera los materiales necesarios para
generar mano de obra comercial. La agricultura utiliza métodos antiguos para el cultivo
de cultivos, la agricultura típica o antigua generalmente se practica en todo el mundo.
Estas técnicas no parecen ser precisas, por lo que conllevan un trabajo arduo y un
consumo de tiempo. La agricultura de precisión es una filosofía técnica que intenta
maximizar los resultados observados en un sistema agrícola mediante la automatización
de los procesos de observación, medición y respuesta mientras se mantiene la gestión
de la utilización de los recursos del sector agrícola. De hecho, el uso de tecnologías de
punta que actualmente se están implementando efectivamente, como el Internet de las
28
Cosas (IoT), la inteligencia artificial, la teledetección, las redes de sensores y la robótica
se amplía enormemente con la agricultura de precisión.
Estos avances son prometedores para mantener la seguridad de los alimentos,
minimizar los efectos dañinos de la actividad humana en el medio ambiente y,
eventualmente, asegurar el éxito económico. La agricultura de precisión ha hecho un
uso extensivo de técnicas estadísticas como la regresión lineal múltiple (MLR). Sin
embargo, la MLR sólo puede describir correlaciones lineales entre los parámetros del
cultivo y las variables del sitio, y los hallazgos pueden ser engañosos cuando las
correlaciones no parecen lineales. Por lo tanto, los resultados de la MLR suelen ser
insatisfactorios. En la última década, numerosos sistemas para la agricultura han
utilizado enfoques de ML para producir resultados más precisos, particularmente
debido a la capacidad de abordar cuestiones no lineales extremadamente complicadas
relacionadas con la agricultura. La precisión de la predicción se utiliza como validación
de los algoritmos de ML, que se basan en conjuntos de datos, variables y parámetros
utilizados para entrenar el modelo. ML puede extraer comprensión de los datos
identificando tendencias, correlaciones y relaciones. Para un método no paramétrico
no son necesarias hipótesis previas sobre el tipo de distribución de probabilidades que
cumple la categoría y otras propiedades. El uso de estos métodos ha dado como
resultado modelos más precisos para el pronóstico de la producción de cultivos con
muchos insumos.
Material y métodos
La Figura 1 muestra el plan general del estudio, que consta de los siguientes cuatro
pasos. 1) La recopilación de datos se realiza a partir de datos disponibles públicamente
por la Dirección de Economía y Estadísticas del Ministerio de Agricultura (DESMOA).
Para Maharashtra, la recopilación de datos se lleva a cabo para determinar los costos
operativos involucrados en el cultivo. 2) Para ajustar los datos al modelo ML, se realiza
una codificación en caliente en el conjunto de datos. 3) Los datos preprocesados se
dividen en conjuntos de entrenamiento y prueba, y el conjunto de entrenamiento se
utiliza para entrenar los modelos de regresión Ridge, RF, Lasso, LR, KN, XR, SVR, SGD, DT
y GB. Las medidas de rendimiento de los modelos se tuvieron cuidadosamente en
cuenta, los resultados de la estimación en R2, RMSE y MAE se obtuvieron y utilizaron
para encontrar el modelo ML óptimo. 4) Predecir los costos de cultivo a medida que la
producción se realiza utilizando el mejor modelo ML.
Resultados y discusión La eficacia de un modelo de aprendizaje se rastrea midiendo su
desempeño utilizando varias métricas de evaluación. Se compararon R2, RMSE y MAE
para evaluar cada modelo de ML. Esta sección proporciona un resumen de los hallazgos
experimentales posibles gracias a las técnicas de ML propuestas. En esta sección, los
resultados de los modelos ML se evalúan observando qué tan estrechamente coinciden
los costos de cultivo medidos y previstos. El conjunto de datos con un total de 1680
muestras se divide arbitrariamente en un conjunto de entrenamiento y un conjunto de
prueba durante la construcción de modelos de ML, y la mayoría de los datos se utilizan
para el entrenamiento. El 70% (1176 muestras) de cada conjunto de datos se utilizó

29
para entrenar los modelos, mientras que el 30% restante (504 muestras) se utilizó para
probarlos. La función Python sklearn. model_selection train_test_split divide los puntos
en un tren arbitrario y subconjuntos de prueba [46]. Se desarrollaron varias técnicas de
aprendizaje automático utilizando los paquetes sklearn de Python. El conjunto de datos
con el criterio de 10 veces ha sido expuesto a validación cruzada (CV).

Una elección justa entre relativamente pocos cálculos y un sesgo mínimo en la


determinación del nivel de eficiencia del modelo la proporciona el valor típico de k-
veces es 10. El conjunto de datos se divide en diez segmentos iguales utilizando un CV
de 10 veces, de los cuales nueve se utilizan como datos de entrenamiento y uno para
probar el rendimiento del modelo para cada iteración. La media general de los valores
de cada ronda representa el rendimiento del modelo. La Tabla 1 muestra las medidas
estimadas y registradas como R2, RMSE y MAE. La efectividad de la predicción del
modelo se evalúa en función de su desempeño que involucra mediciones de RMSE y
MAE más bajas y valores de R2 más altos. La tabla demuestra que la medida R2 para XR,
DT, KN y GBR es superior a 0,95 y al mismo tiempo tiene valores RMSE y MAE más bajos
para todos los componentes de los gastos totales, lo que indica que estos modelos de
aprendizaje pueden predecir con precisión los gastos de cultivo. SVR y SGDR tienen un
rendimiento deficiente en comparación con otros modelos de ML en términos de R2,
RMSE y MAE.

Clasificación binaria de imágenes de cáncer de piel


mediante redes preentrenadas con I-GWO
Una de las formas más frecuentes de cáncer en todo el mundo es el cáncer de piel. Para
determinar las características de la enfermedad es necesaria una evaluación clínica de
las lesiones cutáneas, pero este proceso está limitado por los largos horizontes
temporales y la multiplicidad de interpretaciones. Se han creado técnicas de
aprendizaje profundo para ayudar a los dermatólogos con estos problemas, ya que una
mayor tasa de supervivencia del paciente depende de la detección temprana y precisa

30
del cáncer de piel. Esta investigación propuso un nuevo enfoque para la clasificación
binaria de imágenes dermatoscópicas para el cáncer de piel. El Optimizador de lobo gris
mejorado (I-GWO) se utiliza en esta técnica para ajustar los valores de algunos
hiperparámetros de varias redes de aprendizaje profundo entrenadas previamente para
maximizar los resultados. SqueezeNet, ShuffleNet, AlexNet, ResNet-18 y DarkNet-19 son
las redes entrenadas previamente que se emplearon. Probamos las bases de datos
MED-NODE y DermIS en nuestra investigación. Con respecto a los conjuntos de datos
MED-NODE y DermIS, los resultados de precisión más altos del método propuesto son
100% y 97%, respectivamente.
Descargas

Métrica

Una de las formas de cáncer más prevalentes en todo el mundo es el cáncer de piel. La
determinación de las características de la enfermedad requiere una evaluación clínica
de las lesiones cutáneas, pero este proceso está limitado por horizontes temporales
prolongados y una multiplicidad de interpretaciones. Se han creado técnicas de
aprendizaje profundo para ayudar a los dermatólogos con estos problemas, ya que una
mayor tasa de supervivencia del paciente depende de la detección temprana y precisa
del cáncer de piel. Esta investigación propuso un nuevo enfoque para la clasificación
binaria de imágenes dermatoscópicas para el cáncer de piel. El Optimizador de lobo gris
mejorado (I-GWO) se utiliza en esta técnica para ajustar los valores de algunos
hiperparámetros de varias redes de aprendizaje profundo previamente entrenadas para
maximizar los resultados. SqueezeNet, ShuffleNet, AlexNet, ResNet-18 y DarkNet-19 si

31
las redes previamente entrenadas que se emplearon. Probamos las bases de datos
MED-NODE y DermIS en nuestra investigación. Con respecto a los conjuntos de datos
MED-NODE y DermIS, los resultados de mayor precisión del método propuesto son del
100% y el 97%, respectivamente.
Trabajos relacionados Esta sección enumera diversas investigaciones que se han
publicado en el campo de la clasificación y detección del cáncer de piel. Se centra en
trabajos recientes que han utilizado el aprendizaje profundo (DL) con el mismo
propósito. Kwasigroch et al. propusieron utilizar una CNN con escalada de colinas como
espacio de búsqueda para clasificar las lesiones cutáneas. Este método aumentó el
tamaño de la red, reduciendo los costos informáticos. Adegún et al. describieron una
red de codificador y decodificador con conexiones de salto que unen subredes. La CNN
propuesta se utilizó para segmentar las lesiones cutáneas y categorizarlas píxel por
píxel. CNN, según Song et al, puede segmentar, reconocer y categorizar lesiones
cutáneas. Para controlar los conjuntos de datos desequilibrados, emplearon una
función de pérdida basada en la distancia de Jaccard y la pérdida focal. Manne et al.
propusieron un sistema de clasificación del cáncer de piel basado en CNN.
Mostraron una técnica informática completamente automatizada para la clasificación
de lesiones cutáneas. En este estudio, se entrenaron previamente tres modelos
(ResNet-18, AlexNet y VGG16) para que actuaran como generadores de funciones. Estos
atributos recuperados se utilizan posteriormente para entrenar máquinas de vectores
de soporte. Thurnhofer-Hemsi y Domínguez presentaron una arquitectura CNN para el
diagnóstico del cáncer de piel. Afirmaron que los resultados de la red DenseNet201 son
apropiados para esta aplicación. Kousis et al. estudiaron algoritmos de aprendizaje
profundo, así como una aplicación móvil para la detección precisa del cáncer de piel.
Propusieron el XGBoost, un promedio de 104los 8 mejores modelos DL y un promedio
de 15 modelos DL. Nawaz et al. presentaron algoritmos DL para el diagnóstico de
melanoma. CNN se utilizó en este enfoque para extraer características visuales. Luego,
estos atributos se envían a dos modelos de ANN, el primero de los cuales es una CNN y
se utilizó para identificar las ubicaciones de destino. Además, el segundo NN es un CNN
recurrente (RCNN), que detecta la ubicación de la lesión. Finalmente, la segmentación
de la lesión se realizó mediante el método Fuzzy K-means (FKM) en función de la
posición establecida. Reis et al. emplearon CNN para el diagnóstico del cáncer de piel
(SCD) e identificaron las ubicaciones de las lesiones. En este modelo, las imágenes de
entrada se preprocesan antes de segmentarlas utilizando la red UNet. La región de la
lesión se recorta según los resultados de la segmentación y este segmento se utiliza
como entrada de un modelo CNN denominado InSiNet para categorizar la imagen de
entrada.

Preprocesamiento
Los datos se preprocesaron de la siguiente manera. Primero, debido a que las imágenes
tienen diferentes dimensiones, es necesario escalar todas las imágenes a un tamaño
determinado. Todas las imágenes han sido escaladas a 250×250 píxeles. En segundo
lugar, las imágenes se filtraron utilizando el filtro mediano. En tercer lugar, el vello de la

32
piel que aparecía en las imágenes se eliminó mediante diversos procedimientos
morfológicos para que no afectara los resultados de la clasificación porque puede
considerarse parte de la lesión, como se muestra en la Figura 3. La Figura 4 ilustra cómo
se recortaron las imágenes. a una dimensión adecuada (150×150), ya que muchas
fotografías tienen bordes negros debido al uso del microscopio.

Quinto, como se muestra en la Figura 5 (b), segmentamos la lesión en cada imagen y


eliminamos las imágenes restantes en negro. En sexto lugar, se utilizaron las manchas
negras alrededor de la lesión para determinar la región de interés, como se muestra en
la Figura 5 (c); sin embargo, este paso alteró los tamaños de las imágenes. Se debe
cambiar el tamaño de cada imagen al tamaño inicial (250×250). La Figura 6 muestra
todos los procedimientos de preprocesamiento realizados anteriormente. En la
práctica, la fase de segmentación afectó la precisión de la clasificación y el rendimiento
del sistema, por lo que la evitamos para lograr mejores resultados.

La singularidad se encuentra con la semántica: un


novedoso enfoque de bolsa de palabras
semánticamente significativa para hacer coincidir los
currículos con los perfiles de trabajo.
En un mundo cada vez más competitivo, la revisión automatizada de los currículos de
los candidatos es una necesidad del momento, dada la gran cantidad de currículos de
este tipo en los portales profesionales de la World Wide Web. La clasificación de
currículos es un subconjunto del problema de clasificación de documentos en el que las
palabras clave extraídas del currículo desempeñan un papel importante a la hora de

33
determinar el perfil del puesto. En este artículo, exploramos la novedosa combinación
de unicidad en términos de la cantidad de ocurrencias de una palabra clave en una clase
de currículo en comparación con las otras clases de currículo, y el concepto de
semántica al representar las palabras clave filtradas mediante incrustaciones de
palabras que se pueden utilizar para encontrar similitudes semánticas entre
documentos de currículo.
El principio de partición de máxima entropía se utiliza para encontrar las palabras clave
exclusivas de una clase en particular. El objetivo es utilizar representaciones semánticas
solo de aquellas palabras clave que aparecen con mayor frecuencia en una clase que en
cualquier otra clase; luego, estas se pasan como entrada a una memoria de corto plazo
bidireccional (LSTM) para su clasificación. Nuestros experimentos en un conjunto de
datos de referencia demuestran que el enfoque propuesto supera el estado del arte en
clasificación de texto por un margen significativo, lo que demuestra la eficacia de
nuestro enfoque.

Descargas

Métrica

Clasificar documentos según las palabras clave que contienen es un problema bien
investigado [1, 2, 3, 4, 5]. Se supone que dos documentos pertenecen a la misma
categoría si tienen un alto contenido mutuo de palabras clave, como afirmó Heaps allá
por 1973. La elección de las palabras clave que representan el documento de texto, por
lo tanto, tiene un papel crucial que desempeñar en el rendimiento de la clasificación.
Las palabras clave se filtran en función de su correlación con la etiqueta de clase o
simplemente en función de su frecuencia de aparición en los documentos. La
codificación one-hot, la frecuencia de términos (TF) y la frecuencia de documento
inversa de frecuencia de términos (TF-IDF) son ejemplos de representaciones de bolsa

34
de palabras (BoW) del texto en un documento; Luego, estos se clasifican mediante
algoritmos de aprendizaje automático como la red neuronal artificial o los árboles de
decisión.
En el enfoque BoW, las palabras clave se comparan simplemente en función de su
aparición y no de su significado real. Por otro lado, el uso de incrustaciones de palabras
semánticamente significativas como GloVe y Word2Vec facilita la coincidencia de
similitud semántica entre documentos para la clasificación de textos. Las redes
neuronales recurrentes, como la memoria a corto plazo (LSTM) o los transformadores,
se suelen utilizar para extraer información útil de la secuencia de incrustaciones de
palabras que emanan de cada documento. Los currículums son documentos preparados
por los solicitantes de un puesto de trabajo, que contienen sus datos personales,
calificaciones educativas, habilidades relacionadas con el puesto que solicitan y
experiencia laboral. La clasificación de currículums es un subconjunto del problema de
clasificación de documentos. Las clases o categorías en los conjuntos de datos de
currículum representan diferentes perfiles laborales, como contador, profesor, etc., que
tienen diferentes requisitos educativos y de habilidades.
MotivaciónProponemos la confluencia de dos perspectivas diversas y populares para la
extracción de características a partir de datos textuales: - el número de apariciones de
la forma morfológica de la palabra y la semántica o significado de la palabra. Para el
primero, utilizamos frecuencias de términos para identificar las palabras clave únicas en
un documento, y para el segundo, consideramos incrustaciones de palabras GloVe y
Word2Vec semánticamente significativas para representar las palabras clave únicas
filtradas en la primera fase.
En el presente trabajo, abordamos el estudio de caso específico de clasificación de
currículum donde la tarea es clasificar el currículum de candidatos en diferentes perfiles
laborales que constituyen las categorías de currículum. Un trabajo reciente sobre
clasificación de currículums adaptó con éxito las palabras clave de élite, introducidas en,
junto con clasificadores de aprendizaje automático, para la clasificación de currículums.
Las palabras clave de élite se seleccionaron en función de la frecuencia de aparición en
una clase de documento en particular. Nuestra investigación actual avanza en el
trabajo existente al: (i) filtrar aún más las palabras clave de élite para extraer las
palabras clave de élite únicas que son exclusivas de una clase en particular, seguido de
la concatenación entre clases después de eliminar la redundancia (ii) que representa la
secuencia de palabras clave de élite únicas palabras clave extraídas de cada documento
de currículum mediante incrustaciones de palabras GloVe y Word2Vec para hacer que
la representación general de características sea semánticamente significativa (iii)
aprender las incrustaciones secuenciales de palabras utilizando BiLSTM, que se sabe
que procesa información temporal de manera efectiva para clasificar documentos. El
objetivo es utilizar representaciones semánticas de sólo aquellas palabras clave
discriminativas que ocurren con más frecuencia en una clase que en cualquier otra
clase. Esto ayudaría a eliminar palabras clave engañosas que, aunque tienen un alto
número, pueden no representar de forma singular una clase de currículum.

35
Discusión sobre los resultados El número de palabras clave de élite únicas
preseleccionadas individualmente de cada clase se muestra en la Tabla 1 para el
Conjunto de datos-1 y en la Tabla 2 para el Conjunto de datos-2. El número total de
palabras clave de élite únicas concatenadas en todas las clases, después de eliminar la
redundancia, asciende a 8336 para el Conjunto de datos-1 y 9986 para el Conjunto de
datos-2. Las diferentes categorías de currículum como “Contable” o “Profesor”
(Conjunto de datos-1) corresponden a diferentes perfiles laborales. Por lo tanto, la
tarea de clasificación que nos ocupa es clasificar un documento de currículum en uno
de los perfiles laborales en función de las palabras clave que contienen. La tarea es más
desafiante en el caso de Dataset-2, en el que los seis perfiles laborales pertenecen al
dominio de informática/TI, y categorías como “Administrador de bases de datos”,
“Administrador de redes” y “Administrador de sistemas” parecen muy relacionadas.
Dado que un currículum puede contener información útil e irrelevante, se requiere un
mecanismo de filtrado antes de la vectorización de características. Las palabras clave
de élite únicas cumplen este propósito y también logran reducir la dimensionalidad en
gran medida, como se muestra en las Tablas 1 y 2 que comparan el número total de
palabras clave que aparecen en una clase con la cantidad de palabras clave de élite
únicas filtradas. Las nubes derivadas de la clase "Contador" del Conjunto de datos-1 se
muestran en la Fig. 5. El tamaño de las palabras en la nube de palabras indica la
frecuencia de la palabra clave. La nube de palabras construida utilizando las 5084
palabras clave en la Fig. 5 (a) resalta "trabajo", "estado", "profesional", "aplicación",
"capacitación", que no son relevantes para la clase de contador y, por lo tanto,
conducirían a resultados engañosos. Por otro lado, la figura 5 (b), que ilustra la nube de
palabras de 1157 palabras clave de élite únicas, resalta palabras como “marketing”,
“financiero”, cuenta”, etc., que son más relevantes para la categoría “Contable” y
ayudarían a categorización de currículum más efectiva.

Aprovechar el aprendizaje por transferencia para un


diagnóstico eficiente de la EPOC mediante imágenes
de radiografía de tórax y técnicas de inteligencia
artificial explicables
La enfermedad pulmonar obstructiva crónica (EPOC) es un problema de salud global
predominante, ocupando el tercer lugar en tasas de mortalidad, pero con frecuencia
permanece sin diagnosticar hasta sus etapas avanzadas. Dada su prevalencia, la
necesidad de herramientas de diagnóstico innovadoras y ampliamente accesibles nunca
ha sido más importante. Si bien las pruebas de espirometría sirven como puntos de

36
referencia de diagnóstico convencionales, su alcance sigue siendo limitado,
especialmente en regiones con recursos médicos limitados. La investigación presentada
aprovecha algoritmos de aprendizaje profundo para facilitar la detección temprana de
la EPOC, específicamente dirigida a las radiografías de tórax (CXR). El conjunto de datos
VinDR-CXR anotados clínicamente proporciona la base principal para el entrenamiento
del modelo, complementado con la incorporación del conjunto de datos ChestX-ray14
para el preentrenamiento inicial del modelo. Esta estrategia de conjunto de datos dual
aumenta la generalización y la adaptabilidad del modelo. Entre varias arquitecturas de
redes neuronales convolucionales (CNN) exploradas, el modelo Xception surge como un
líder.

Descargas

Métrica

La enfermedad pulmonar obstructiva crónica (EPOC) se ha convertido en un problema


de salud importante en todo el mundo, lo que plantea importantes desafíos a los
sistemas de salud. Por lo tanto, la detección temprana de la EPOC para un manejo
eficiente de la enfermedad y mejorar el pronóstico del paciente es fundamental. Los
enfoques de diagnóstico tradicionales para la EPOC abarcan la evaluación clínica, las
pruebas de función pulmonar y las técnicas de imagen, en particular las imágenes de
radiografía de tórax (CXR). Sin embargo, el análisis manual de imágenes de CXR requiere
mucha mano de obra y es propenso a errores, especialmente cuando se diagnostica la
EPOC en sus primeras etapas. Clínicamente, las pruebas de función pulmonar (PFT) y la
espirometría son esenciales para confirmar la EPOC. Sin embargo, estas pruebas

37
pueden no ser efectivas para detectar las primeras etapas de la EPOC, lo que hace que
los pacientes asintomáticos sean evaluados con menos frecuencia.
El alto costo y la disponibilidad limitada de la espirometría, particularmente en las
regiones de bajos ingresos, retrasan aún más el diagnóstico. Por el contrario, las
radiografías de tórax (CXR) son más asequibles y ampliamente accesibles. Esto ha
estimulado el interés en utilizar radiografías de tórax para desarrollar herramientas de
diagnóstico temprano de la EPOC. Estas herramientas podrían guiar a las personas hacia
intervenciones oportunas, incluidas la detección del cáncer de pulmón y los programas
para dejar de fumar. Con los avances en inteligencia artificial (IA), las técnicas de
aprendizaje profundo (DL) han demostrado ser confiables en numerosas tareas de
imágenes médicas, incluido el análisis de CXR. imágenes. Por ejemplo, ResNet50, una
DArchitecture, funciona bien en visión por computadora y se ha aplicado a diversos
problemas de imágenes médicas.
Además, su capacidad para mitigar el problema del gradiente de desaparición mediante
conexiones de salto lo convierte en una opción atractiva para diagnosticar la EPOC a
partir de imágenes de radiografía de tórax. Los investigadores han explorado
recientemente el uso de modelos DL para diagnosticar la EPOC a partir de imágenes
médicas. Sin embargo, persisten desafíos en la interpretabilidad del modelo, que es
crucial para adoptar estos modelos en entornos clínicos. Para abordar este problema, se
han propuesto técnicas explicables de inteligencia artificial (XAI), como Grad-CAM
(Gradient Class Activation Maps), que proporcionan explicaciones visuales de las
predicciones de los modelos y mejoran la confianza de los médicos en los modelos.

Descripción del conjunto de datos Se utilizaron dos conjuntos de datos para esta
investigación, a saber: El conjunto de datos de rayos X de tórax (CXR) de los Institutos
Nacionales de Salud (NIH), una colección disponible públicamente de más de 110 000
imágenes PA-CXR de 30 805 personas que han sido etiquetadas con uno de Se utilizaron
catorce categorías de enfermedades frecuentes. En esta actualización de ChestX-ray8 se
incluyen seis enfermedades adicionales del tórax, que incluyen edema, enfisema,
fibrosis, engrosamiento pleural y hernia. Las imágenes están comentadas con hasta 14
enfermedades torácicas, incluida la EPOC. Esta anotación integral brinda una excelente
oportunidad para entrenar y evaluar modelos para detectar enfermedades específicas o
múltiples afecciones simultáneamente. Además, el conjunto de datos contiene una
combinación equilibrada de pacientes sanos y aquellos con EPOC, lo que garantiza una
muestra representativa para desarrollar y evaluar el modelo.
Además, la diversidad del conjunto de datos en cuanto a la demografía de los
pacientes, la gravedad de la enfermedad y el equipo de imágenes utilizado para la
adquisición contribuye a la solidez de los modelos entrenados en él, mejorando sus
capacidades de generalización y su potencial para aplicaciones clínicas del mundo real.
El segundo conjunto de datos empleado para validar los modelos es el conjunto de
datos "VinDR-CXR", procedente de dos importantes instituciones médicas de Vietnam.
Consta de más de 100 000 imágenes CXR, con un subconjunto de aproximadamente 18
000 imágenes meticulosamente anotadas por 17 radiólogos experimentados.

38
Estas anotaciones incluyen 22 etiquetas rectangulares específicas para irregularidades
localizadas y seis etiquetas amplias que identifican enfermedades potenciales. La parte
disponible públicamente de este conjunto de datos incluye 30 000 entradas, 15 000 de
las cuales se utilizan para el entrenamiento del modelo y 3000 designadas para pruebas,
como se muestra en la Figura 1. La Figura 2 ilustra una selección de imágenes con
anotaciones detalladas en el cuadro delimitador.
En particular, durante la fase de formación, cada radiografía fue etiquetada de forma
independiente por tres radiólogos, lo que garantiza una rica diversidad de
interpretaciones, mientras que en la fase de prueba se empleó un enfoque de consenso
entre cinco radiólogos para cada imagen. Tanto el subconjunto de capacitación como el
de validación, junto con todas las imágenes anónimas, se proporcionan en formato
DICOM, cumpliendo con los estándares de imágenes médicas y garantizando
coherencia y confiabilidad en la capacitación y evaluación del modelo.

39

También podría gustarte