FACULTAD DE CIENCIAS DE LA INGENIERÍA
TECNOLOGÍA DE LA INFORMACIÓN Y
COMUNICACIONES
MODALIDAD EN LÍNEA
ASIGNATURA:
INTELIGENCIA ARTIFICIAL
TEMA:
Redes Neuronales
DOCENTE:
Ing. Fernando Valle, MSc.
ALUMNOS GRUPO:
Integrantes
AGUEDA ALEXANDRA CABRERA RODRIGUEZ
SIXTA KARINA VILLAFUERTE IBAÑEZ
JOSE WILMER BUSTAMANTE TELLO
VICTOR RUBEN BERMEO LOOR
NELSON SIMON BASANTES CHICAIZA
AULA:
8vo TICS C2
FECHA:
MILAGRO, 30 JUNIO 2024
a
Integrante Tipo de Red Neuronal Link
https://drive.google.com/file/
AGUEDA ALEXANDRA CNNs (Redes Neuronales d/1eb6GaMSMIgIMrseKafPJH
CABRERA RODRIGUEZ Convolucionales) p9YT4yyQJ02/view?usp=shari
ng
https://docs.google.com/pres
entation/d/1BllBq4Ua4ib_xv9
SIXTA KARINA VILLAFUERTE RNNs (Redes Neuronales TIh_B7dI6Y9dHaALa/edit?usp
IBAÑEZ Recurrentes) =drivesdk&ouid=1083097118
20922061207&rtpof=true&sd
=true
https://drive.google.com/file
JOSE WILMER BUSTAMANTE GANs (Redes Neuronales /d/1XVO5CZU3LxvdGBPt_gOi
TELLO Generativas) cTX8VQHeY64j/view?usp=sha
ring
https://docs.google.com/pre
sentation/d/1RvazdDQ5epqH
NELSON SIMON BASANTES xKIgHS1TRxnLrqiMRPkW/edit
CHICAIZA
Transformers
?usp=sharing&ouid=1011571
54830589034100&rtpof=true
&sd=true
https://docs.google.com/pres
entation/d/1cEuMV9Boj8YeX
VICTOR RUBEN BERMEO Sx5puQD6eiyJaZYPUy3/edit?
LOOR
Transformers
usp=sharing&ouid=11623943
7427043847937&rtpof=true&
sd=true
Link del Video
https://drive.google.com/file/d/1qaODXj0RC2GqMtbY-5Nyh2D3rnamVVGz/view?usp=sharing
b
INDICE
Introducción .................................................................................................... 4
Redes Neuronales Convolucionales (CNNs) ................................................. 6
Redes Neuronales Recurrentes (RNNs) ........................................................ 8
GANs (Redes Neuronales Generativas Adversarias) ................................. 10
Redes Neuronales Transformers ................................................................. 13
Conclusiones ................................................................................................ 16
Bibliografía .................................................................................................... 17
Anexos ........................................................................................................... 18
c
Introducción
El mundo de las tecnologías de la información ha dado pasos
agigantados en el último cuarto de siglo, la computación en la nube, las
redes sociales y ahora la inteligencia artificial han derribado barreras para
el aprendizaje y entendimiento.
Lo último, la inteligencia artificial, se ha desarrollado bajo el esquema
de las redes neuronales, estas son modelos computacionales inspirados
en la estructura y funcionamiento del cerebro humano. Estas redes están
compuestas por unidades llamadas neuronas, organizadas en capas, que
procesan datos de entrada y generan una salida.
Las redes neuronales, tienen una gran ventaja a programación
tradicional, es que aprenden a realizar tareas ajustando los pesos de las
conexiones entre neuronas a través de un proceso llamado
entrenamiento, para esto es necesario utilizar datos etiquetados para que
el aprendizaje sea el más cercano a las respuestas que daría un cerebro
humano.
Las redes neuronales se clasifican en Redes Neuronales
Convolucionales (CNNs), Redes Neuronales Recurrentes (RNNs), Redes
Generativas (GANs) y Redes Neuronales Transformer. Estas tienen sus
propias características y posibilidades de uso, a continuación las
describimos brevemente y su ámbito de aplicación.
Redes Neuronales Convolucionales (CNNs): Estas redes son
especialmente utilizadas para procesamiento de imágenes. Utilizan capas
convolucionales que aplican filtros para detectar características locales
como bordes, texturas y patrones. Su aplicación se centra en el
reconocimiento de imágenes, clasificación de objetos, análisis de video,
entre otros.
Redes Neuronales Recurrentes (RNNs): Estas redes son utilizadas
para el tratamiento de datos secuenciales, como series temporales y
4
texto. Poseen conexiones neuronales que le permiten la retroalimentación
de la información, lo que les permite recordar información de pasos
anteriores, aunque esto también es una desventaja cuando la cantidad de
datos es ingente. Su ámbito de aplicación es el modelado del lenguaje,
traducción automática, análisis de series temporales.
Redes Generativas (GANs): Esta red realmente consiste en dos
redes, una red generador y una red discriminador, que compiten entre sí.
El generador crea datos falsos mientras el discriminador intenta distinguir
entre datos reales y generados. Este tipos de redes es muy utilizado en la
generación de imágenes realistas, creación de arte, sintetizadores de voz,
entre otros.
Redes Neuronales Transformer: La red neuronal transformers, se
podría indicar que el la evoluación de la red neuronal recurrente, fueron
diseñados para manejar secuencias de datos, como texto, utilizando
mecanismos de atención para procesar la información de manera paralela
en lugar de secuencial. Esto permite capturar relaciones a largo plazo en
los datos. Traducción automática, resumen de texto, procesamiento del
lenguaje natural.
5
Redes Neuronales Convolucionales (CNNs)
Inspiradas en el funcionamiento del sistema visual humano, las CNNs
son capaces de extraer patrones y características complejas a partir de
imágenes, lo que las convierte en herramientas ideales para tareas como
la clasificación de imágenes, la detección de objetos, el reconocimiento
facial y el análisis de imágenes médicas.
¿Cómo funcionan las CNNs?
Estas operaciones se realizan utilizando filtros Convolucionales, que
son matrices de pesos que se deslizan por la imagen, capturando
información local.
Componentes clave de una CNN:
Estas capas extraen características de la entrada de la imagen
mediante convoluciones con filtros Convolucionales. Capas de
agrupación: Las capas de agrupación se utilizan para reducir la
dimensionalidad de la salida de las capas Convolucionales, lo que ayuda
a controlar la complejidad del modelo y a prevenir el sobreajuste. Capas
de apilamiento completo:
En las últimas etapas de una CNN, se utilizan capas de apilamiento
completo para combinar las características extraídas por las capas
Convolucionales y realizar la clasificación o regresión final.
Aplicaciones de las CNNs
Las CNNs tienen una amplia gama de aplicaciones en el mundo real,
incluyendo: Detección de objetos: Localizar y detectar objetos específicos
en imágenes, como personas, autos, señales de tráfico, etc.
Generación de imágenes: Crear nuevas imágenes a partir de ejemplos
existentes o descripciones textuales. Ventajas de las CNNs: Capacidad
6
de extracción de características: Las CNNs son expertas en extraer
patrones y características complejas a partir de imágenes. Invariancia a la
traslación: Las CNNs pueden identificar objetos independientemente de
su posición en la imagen. Invariancia a la rotación: Las CNNs pueden
identificar objetos independientemente de su orientación en la imagen.
7
Redes Neuronales Recurrentes (RNNs)
Las redes neuronales recurrentes (RNN) son un tipo de red neuronal
artificial que se utiliza para procesar datos secuenciales, como el lenguaje
natural, la música y las series temporales. A diferencia de las redes
neuronales feedforward tradicionales, las RNN tienen conexiones
recurrentes que les permiten mantener información en memoria a medida
que procesan los datos de entrada. Las principales características de las
redes neuronales recurrentes son:
• Tienen conexiones hacia atrás que permiten que la información circule
en ambas direcciones, a diferencia de las redes feedforward que solo
procesan la información en una dirección.
• Pueden procesar secuencias de datos de longitud variable, como texto
o audio, ya que comparten parámetros a lo largo de la secuencia.
• Capturan dependencias temporales y contextuales en los datos
secuenciales, lo que las hace útiles para tareas como reconocimiento de
voz, traducción automática y generación de texto.
Sin embargo, las RNN básicas tienen dificultades para recordar
información a largo plazo, lo que se conoce como el "problema de la
memoria a corto plazo". Para solucionar esto, se han desarrollado
variantes más avanzadas como las redes LSTM (Long Short-Term
Memory) y GRU (Gated Recurrent Unit), que utilizan celdas de memoria
especiales para retener información relevante a lo largo de la secuencia.
8
¿Cómo funcionan las redes neuronales recurrentes en la traducción
automática
Las redes neuronales recurrentes (RNN) son una herramienta
poderosa para la traducción automática, ya que pueden procesar
secuencias de datos como el lenguaje natural manteniendo un "estado
interno" que les permite capturar dependencias temporales y
contextuales. A diferencia de las redes neuronales feedforward
tradicionales, las RNN tienen conexiones recurrentes que les permiten
mantener información en memoria a medida que procesan los datos de
entrada. Esto es crucial para la traducción, ya que el significado de una
palabra puede cambiar dependiendo del contexto de la frase. En el caso
de la traducción automática, las RNN se entrenan en pares de oraciones
en diferentes idiomas. Aprenden a convertir la lengua en números y
viceversa, encontrando patrones y estructuras lingüísticas complejas para
traducir texto de un idioma a otro de manera casi natural. Modelos
avanzados de RNN como las redes LSTM (Long Short-Term Memory)
utilizan celdas de memoria especiales para retener información relevante
a lo largo de la secuencia, superando el problema de la "memoria a corto
plazo" de las RNN básicas.
Esto permite una traducción más precisa y contextualizada. Empresas
líderes en traducción automática como Google Translate y Baidu
Translate han adoptado ampliamente las RNN, logrando resultados de
traducción de mayor calidad y fluidez en comparación con otros
enfoques. Las RNN han llevado la traducción automática al siguiente
nivel, ofreciendo traducciones más rápidas, precisas y naturales. En
resumen, las redes neuronales recurrentes son un pilar fundamental de la
traducción automática moderna, gracias a su capacidad de procesar
secuencias de datos manteniendo un contexto y memoria a lo largo de la
traducción. Modelos avanzados como las LSTM han impulsado aún más
la calidad y precisión de las traducciones automáticas.
9
GANs (Redes Neuronales Generativas Adversarias)
Las redes neuronales generativas adversarias (GANs por sus siglas en
inglés) son un tipo de red neuronal artificial que ha revolucionado el campo
de la inteligencia artificial en los últimos años. A diferencia de las redes
neuronales tradicionales que se entrenan para realizar tareas específicas
como la clasificación de imágenes o el reconocimiento facial, las GANs se
entrenan para generar nuevos datos que sean indistinguibles de los datos
reales. Esto las convierte en una herramienta poderosa para crear
contenido realista en una variedad de formatos, incluyendo imágenes,
videos, texto y audio.
¿Cómo funcionan las GANs?
Las GANs están compuestas por dos redes neuronales principales:
un generador y un discriminador. El generador es responsable de crear
nuevos datos, mientras que el discriminador es responsable de determinar
si los datos son reales o falsos. Las dos redes se entrenan en un juego
competitivo, donde el generador intenta engañar al discriminador
haciéndolo creer que sus datos generados son reales, mientras que el
discriminador se vuelve cada vez mejor para detectar datos falsos.
10
Componentes clave de una GAN:
Generador: La red neuronal que crea nuevos datos. Puede estar
compuesta por diferentes arquitecturas de redes neuronales, como redes
neuronales convolucionales (CNNs) o redes neuronales recurrentes
(RNNs).
Discriminador: La red neuronal que determina si los datos son reales o
falsos. También puede estar compuesta por diferentes arquitecturas de
redes neuronales.
Función de pérdida: Una función matemática que mide la diferencia entre
los datos generados y los datos reales. Se utiliza para entrenar tanto al
generador como al discriminador.
Retroalimentación: El discriminador proporciona retroalimentación al
generador sobre la calidad de sus datos generados. Esta
retroalimentación se utiliza para mejorar el generador con el tiempo.
Aplicaciones de las GANs:
Las GANs tienen una amplia gama de aplicaciones en el mundo real,
incluyendo:
Generación de imágenes: Crear nuevas imágenes realistas a partir de
ejemplos existentes o descripciones textuales.
Manipulación de imágenes: Editar y modificar imágenes de manera
realista, como cambiar la iluminación, el color o la textura.
Creación de videos: Generar videos realistas a partir de imágenes o
descripciones textuales.
Síntesis de audio: Crear nuevas piezas musicales o sonidos realistas.
Traducción de idiomas: Traducir texto de un idioma a otro de manera fluida
y natural.
Desarrollo de videojuegos: Crear personajes, entornos y objetos realistas
para videojuegos.
11
Aplicaciones médicas: Generar imágenes médicas realistas para la
planificación de tratamientos y la educación médica.
Ventajas de las GANs:
Capacidad de generar datos realistas: Las GANs son capaces de generar
datos que son indistinguibles de los datos reales, lo que las convierte en
una herramienta poderosa para crear contenido realista.
Versatilidad: Las GANs se pueden aplicar a una amplia gama de tareas,
desde la generación de imágenes hasta la síntesis de audio.
Potencial creativo: Las GANs se pueden utilizar para crear contenido
nuevo e innovador que no sería posible con métodos tradicionales.
Desafíos de las GANs
Entrenamiento: El entrenamiento de GANs puede ser un proceso
complejo y computacionalmente intensivo.
Estabilidad: Las GANs pueden ser difíciles de entrenar y pueden colapsar,
lo que significa que solo generan datos irreales.
Interpretabilidad: Puede ser difícil entender cómo las GANs toman
decisiones, lo que limita su aplicabilidad en algunos casos.
El futuro de las GANs:
Las GANs son un campo de investigación en rápido desarrollo con un gran
potencial para transformar el mundo que nos rodea. A medida que la
tecnología continúa avanzando, podemos esperar ver aún más
aplicaciones innovadoras de las GANs en áreas como la realidad virtual,
la realidad aumentada y el diseño generativo.
12
Redes Neuronales Transformers
En el mundo de la inteligencia artificial, el procesamiento del lenguaje
natural (NLP) ha experimentado un avance significativo gracias a la
aparición de los Transformers. Esta innovadora arquitectura de red
neuronal ha transformado la forma en que las máquinas comprenden y
procesan el lenguaje humano, abriendo un abanico de posibilidades en
diversas áreas.
¿Qué son los Transformers?
Los Transformers son una arquitectura de red neuronal que se ha
convertido en la piedra angular del NLP moderno. Su principal
característica es el mecanismo de atención, que permite a la red
enfocarse en las partes más relevantes de una secuencia de entrada,
como una oración o un párrafo. Esto les brinda una comprensión más
profunda del contexto y las relaciones entre las palabras, lo que se traduce
en un procesamiento del lenguaje más preciso y efectivo.
13
Ventajas de los Transformers:
• Precisión superior: Los Transformers han logrado resultados de
vanguardia en diversas tareas de NLP, como traducción
automática, resumen de texto y generación de lenguaje natural.
• Eficiencia computacional: Su arquitectura permite un
procesamiento más rápido y eficiente, haciéndolos viables para
aplicaciones en tiempo real.
• Versatilidad: Se pueden adaptar a una amplia gama de tareas de
NLP, desde el análisis de sentimientos hasta la respuesta a
preguntas.
Mecanismo de atención: La clave del éxito
El mecanismo de atención es el elemento central que diferencia a los
Transformers de los modelos tradicionales de NLP. Este mecanismo
permite a la red centrarse en las partes más importantes de la entrada,
asignándoles mayor peso en el procesamiento. Esto se logra mediante la
asignación de "puntuaciones de atención" a cada palabra o frase,
indicando su relevancia para la tarea en cuestión.
Beneficios del mecanismo de atención:
• Mejor comprensión del contexto: Al enfocarse en las partes
relevantes de la entrada, los Transformers pueden captar mejor el
significado general del texto.
• Captura de relaciones de largo alcance entre palabras: El
mecanismo de atención permite a la red identificar y comprender
relaciones entre palabras que se encuentran a mayor distancia
dentro de una oración o párrafo.
• Mayor precisión en tareas de NLP: La combinación de una mejor
comprensión del contexto y la capacidad de capturar relaciones de
largo alcance se traduce en un mejor desempeño en diversas
tareas de NLP.
14
Aplicaciones de los Transformers:
Los Transformers han tenido un impacto significativo en diversas áreas
del NLP, abriendo nuevas posibilidades para la interacción hombre-
máquina. Entre sus aplicaciones más destacadas encontramos:
• Traducción automática: Los Transformers han impulsado
avances considerables en la traducción automática, permitiendo
traducciones más precisas, fluidas y contextualizadas.
• Resumen de texto: Generan resúmenes concisos y precisos de
textos extensos, capturando la información esencial de manera
eficiente.
• Generación de lenguaje natural: Crean texto similar al lenguaje
humano, con aplicaciones en chatbots, escritura creativa,
generación de informes y asistencia personalizada.
El futuro del NLP con Transformers:
Los Transformers se perfilan como una herramienta fundamental para el
futuro del NLP, con un potencial ilimitado para transformar la forma en que
las máquinas interactúan con el lenguaje humano. Se espera que su
impacto continúe creciendo en áreas como:
• Educación: Personalización del aprendizaje, creación de
materiales educativos adaptados y apoyo a estudiantes con
necesidades especiales.
• Atención médica: Análisis de registros médicos, generación de
diagnósticos y asistencia en la toma de decisiones médicas.
• Atención al cliente: Interacciones más naturales y eficientes con
los clientes, resolución de problemas y soporte técnico
personalizado.
15
Conclusiones
Hay que considerar que la inteligencia artificial en su evolución ha
creado nuevas formas de comprensión de como la computación puede
accederá a la información y a aprender, las redes neuronales representan
un avance significativo en el campo de la inteligencia artificial y el
aprendizaje automático, esto se debe a que se tomó de ejemplo el el
funcionamiento del cerebro humano. El cerebro humano está conformado
por neuronas que se interconectan para crear datos e información. Las
redes neuronales pueden aprender y mejorar sus tareas ajustando los
pesos de las conexiones entre neuronas a través de un proceso de
entrenamiento con datos etiquetados. A medida que se entrenan, las
redes neuronales son capaces de reconocer patrones, hacer predicciones
y tomar decisiones basadas en los datos que se les proporcionan.
Cabe indicar que cada tipo de red neuronal tiene características únicas
que las hacen adecuadas para diferentes aplicaciones. Esto permite crear
diferentes tipos de inteligencias artificiales, algunas están basadas en
tratamiento de texto, otras en tratamiento de imágenes, otras en
tratamiento de voz, otras en generación de texto e imágenes. Esta
revolución ha permitido a la inteligencia artificial avanzar a lo que es hoy
en día
En conclusión, las redes neuronales han permitido abrir nuevas
posibilidades en la inteligencia artificial, cada tipo de red con su propio
conjunto de fortalezas y aplicaciones específicas. Ya sea a través del
procesamiento de imágenes, el manejo de datos secuenciales, la
generación de contenido nuevo o el procesamiento del lenguaje natural.
Las redes neuronales continúan avanzando y expandiendo los límites de
lo que es posible en el campo de la inteligencia artificial. Con el desarrollo
continuo y la innovación, estas tecnologías seguirán transformando
diversas industrias y mejorando nuestra capacidad para resolver
problemas complejos y crear nuevas oportunidades.
16
Bibliografía
Artola Moreno, Á. (2019). Clasificación de imágenes usando redes
neuronales convolucionales en Python.
Bragagnini Mendizábal, C. M. (2020). Traducción automática del español
al inglés usando redes neuronales profundas con información
conceptual de sentencias.
Bojorquez, D. M. (2021). DE REDES NEURONALES RECURRENTES A
MODELOS DE LENGUAJE: LA EVOLUCIÓN DEL PLN EN LA
GENERACIÓN DE TEXTOS. Publicación Semestral• Octubre de 2021•
ISNN en trámite.
Casacuberta Nolla, F., & Peris Abril, Á. (2017 BODERO, E. M., LOPEZ,
M. P., CONGACHA, A. E., CAJAMARCA, E. E., & MORALES, C. H.
(2020).
Google Colaboratory como alternativa para el procesamiento de una red
neuronal convolucional. Revista Espacios, 41(07).). Traducción
automática neuronal. Tradumàtica, (15), 0066-74
Díez, R. P., Gómez, A. G., & de Abajo Martínez, N. (2001). Introducción a
la inteligencia artificial: sistemas expertos, redes neuronales artificiales
y computación evolutiva. Universidad de Oviedo.
17
Anexos
CNNs (Redes Neuronales Convolucionales)
AGUEDA ALEXANDRA CABRERA RODRIGUEZ
18
RNNs (Redes Neuronales Recurrentes)
SIXTA KARINA VILLAFUERTE IBAÑEZ
Ejemplo: Predicción de acciones en la bolsa usando redes LSTM
importar numpy como np
np . semilla . aleatoria ( 4 )
Importar matplotlib.pyplot como plt
importar pandas como pd
de sklearn . importación de preprocesamiento MinMaxScaler
de keras . importación de modelos Secuencial
de keras . importación de capas densas , LSTM
# Funciones auxiliares
def graficar_predicciones ( real , prediccion ):
pl . plot ( real [ 0 : len ( predicción )], color = 'red' , label = 'Valor real de la acción' )
pl . plot ( prediccion , color = 'blue' , label = 'Predicción de la acción' )
pl . ylim ( 1.1 * np . min ( predicción ) / 2 , 1.1 * np . max ( predicción ))
plt . xlabel ( 'Tiempo' )
plt.ylabel ( ' Valor de la acción' )
pl . leyenda ()
pl . espectáculo ()
# Lectura de los datos
conjunto de datos = pd . read_csv ( 'AAPL_2006-01-01_to_2018-01-01.csv' , index_col = 'Fecha'
, parse_dates = [ 'Fecha' ])
conjunto de datos . cabeza ()
# Conjuntos de entrenamiento y validación
La LSTM se entrenará con datos de 2016 hacia atrás. La validación se hará con datos de 2017
en adelante. En ambos casos sólo se utilizará el valor más alto de la acción para cada día.
set_entrenamiento = dataset [: '2016' ]. iloc [:, 1 : 2 ]
set_validacion = conjunto de datos [ '2017' :]. iloc [:, 1 : 2 ]
19
set_entrenamiento [ 'Alto' ]. trama ( leyenda = Verdadero )
set_validacion [ 'Alta' ]. plot ( leyenda = True )
pl . leyenda ([ 'Entrenamiento (2006-2016)' , 'Validación (2017)' ])
pl . espectáculo ()
# Normalización del set de entrenamiento
sc = MinMaxScaler ( rango_característica = ( 0 , 1 ))
set_entrenamiento_escalado = sc . fit_transform ( set_entrenamiento )
# La red LSTM tendrá como entrada "time_step" datos consecutivos, y como salida 1 dato (la
predicción a a partir de esos datos "time_step"). Se conformará de esta forma el set de
entrenamiento
paso_tiempo = 60
X_tren = []
Tren Y = []
m = len ( set_entrenamiento_escalado )
para i en el rango ( paso_de_tiempo , m ):
# X: bloques de datos "time_step": 0-time_step, 1-time_step+1, 2-time_step+2, etc.
X_tren . append ( set_entrenamiento_escalado [ i - time_step : i , 0 ])
# Y: el siguiente dato
Y_tren . agregar ( set_entrenamiento_escalado [ i , 0 ])
Tren_X , Tren_Y = np . matriz ( X_train ), np . matriz ( Y_train )
# Reshape X_train para que se ajuste al modelo en Keras
X_train = np . remodelar ( X_train , ( X_train . forma [ 0 ], X_train . forma [ 1 ], 1 ))
# LSTM rojo
dim_entrada = ( X_train . forma [ 1 ], 1 )
dim_salida = 1
na = 50
modelo = Secuencial ()
modelo .add ( LSTM ( unidades = na , forma_entrada = dim_entrada ) )
modelo .add ( Dense ( unidades = dim_salida ) )
modelo . compilar ( optimizador = 'rmsprop' , pérdida = 'mse' )
modelo . ajuste ( X_train , Y_train , épocas = 20 , tamaño_lote = 32 )
# Validación (predicción del valor de las acciones)
x_test = set_validacion . valores
x_prueba = sc . transformar ( x_test )
X_prueba = []
para i en el rango ( time_step , len ( x_test )):
X_test .append ( x_test [ i - paso_de_tiempo : i , 0 ] )
X_test = np . matriz ( X_test )
Prueba_X = np . remodelar ( X_test , ( X_test . forma [ 0 ], X_test . forma [ 1 ], 1 ))
predicción = modelo . predict ( X_test )
predicción = sc .inverse_transform ( predicción )
# Graficar resultados
graficar_predicciones ( set_validacion . valores , predicción )
20
GANs (Redes Neuronales Generativas)
JOSE WILMER BUSTAMANTE TELLO
21
Redes Neuronales Transformers: Revolucionando el
Procesamiento del Lenguaje Natural (NLP)
NELSON SIMON BASANTES CHICAIZA
22
Redes Neuronales Tranformers
VICTOR RUBEN BERMEO LOOR
23