0% encontró este documento útil (0 votos)
32 vistas2 páginas

CODIFICACION

Cargado por

oapillajo2
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
32 vistas2 páginas

CODIFICACION

Cargado por

oapillajo2
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

DEPARTAMENTO DE ELÉCTRICA, ELECTRÓNICA Y

TELECOMUNICACIONES
NOMBRE DEL ESTUDIANTE: ALEXANDER PILLAJO
NRC:17417
FECHA DE ENTREGA:23/05/2024

ESPECTRO IEEE
EL GRAN INTERCONECTOR.
LA VISIÓN DE BOB KAHN DE UNA RED DE REDES.
Desde el lanzamiento de ChatGPT en otoño de 2022, todo el mundo ha
intentado ingeniárselas para encontrar una forma inteligente de formular su
consulta a un gran modelo de lenguaje (LLM) para obtener los mejores
resultados. En el sector comercial, las empresas están utilizando LLM para
crear copilotos de productos, automatizar trabajos tediosos, crear asistentes
personales y mucho más, afirma Austin Henley, antiguo empleado de Microsoft
que participó en la realización de una serie de entrevistas con personas que
desarrollan copilotos basados en LLM. "Todas las empresas intentan utilizarlo
para prácticamente todos los casos de uso que puedan imaginar", afirma
Henley Rick Battle y Teja Gollapudi, de la empresa de computación en la nube
VMware.
Battle descubrió que dar a un modelo indicaciones positivas antes de plantear
el problema, como "Esto va a ser divertido" o "Eres tan listo como ChatGPT", a
veces mejoraba su rendimiento. Battle y Gollapudi decidieron probar
sistemáticamente cómo afectaban distintas estrategias de ingeniería de
indicaciones a la capacidad de un LLM para resolver preguntas matemáticas de
primaria. Probaron tres modelos lingüísticos de código abierto con 60
combinaciones diferentes de instrucciones cada uno y lo que encontraron fue
una sorprendente falta de coherencia.
Existe una alternativa a la ingeniería de avisos basada en el método de ensayo
y error, recientemente se han desarrollado nuevas herramientas para
automatizar este proceso. Battle y sus colaboradores comprobaron que en casi
todos los casos la frase generada automáticamente daba mejores resultados
que la mejor frase encontrada por ensayo y error. Además, el proceso era
mucho más rápido y de hecho a la luz de los resultados de su equipo, Battle
afirma que ningún ser humano debería volver a optimizar manualmente los
mensajes.
Los algoritmos de generación de imágenes también pueden beneficiarse de las
indicaciones generadas automáticamente. Recientemente, un equipo de Intel
Labs, dirigido por Vasudev Lal, creó una herramienta llamada NeuroPrompts
que toma un mensaje sencillo, como "niño a caballo", y lo mejora
automáticamente para producir una imagen mejor. Para ello, empezaron con
una lista de instrucciones generadas por expertos en ingeniería de
instrucciones.
La siguiente etapa consistió en optimizar el modelo de lenguaje entrenado para
producir las mejores imágenes. A continuación, utilizaron PickScore, una
herramienta de evaluación de imágenes desarrollada recientemente, para
puntuar la imagen. Después, introdujeron esta puntuación en un algoritmo de
aprendizaje por refuerzo, el cual ajustó el LLM para producir indicaciones que
condujeran a imágenes con mejor puntuación. También en este caso, los
mensajes generados automáticamente obtuvieron mejores resultados que los
mensajes humanos utilizados como punto de partida. Lal cree que a medida
que evolucionen los modelos generativos de IA, ya sean generadores de
imágenes o grandes modelos lingüísticos, deberían desaparecer las extrañas
peculiaridades de la dependencia puntual.
Adaptar la IA generativa a las necesidades de la industria es una tarea
complicada que seguirá requiriendo la participación humana en el futuro
inmediato. Los retos de crear un producto comercial son principalmente
garantizar la fiabilidad, en este caso realizar pruebas para asegurarse de que el
asistente de IA no hará algo perjudicial incluso en un pequeño número de
casos.
Las pruebas y la conformidad son especialmente difíciles, dice Henley, porque
las estrategias tradicionales de pruebas de desarrollo de software están mal
adaptadas a los LLM no deterministas. Para llevar a cabo estas tareas, muchas
grandes empresas son pioneras en una nueva área de trabajo que son las
operaciones de grandes modelos lingüísticos, o LLMOps. Henley afirma que los
predecesores de los especialistas en LLMOps, los ingenieros de operaciones
de aprendizaje automático (MLOps), son los mejor posicionados para asumir
estos puestos.
"No sé si vamos a combinarlo con otro tipo de categoría o función laboral", dice
Cramer, "pero no creo que estas cosas vayan a desaparecer pronto. Y el
panorama es demasiado loco ahora mismo. Todo está cambiando tanto. No
vamos a resolverlo todo en unos meses". Henley afirma que en cierta medida
en esta fase inicial del campo la única regla imperante parece ser la ausencia
de reglas. "Ahora mismo estamos en el salvaje Oeste", afirma.

También podría gustarte