0% encontró este documento útil (0 votos)
16 vistas6 páginas

Intro Chat 1

ChatGPT es un modelo de conversación entrenado para interactuar con usuarios, responder preguntas y admitir errores. Utiliza aprendizaje por refuerzo a partir de feedback humano y se basa en la serie GPT-3.5, aunque presenta limitaciones como respuestas incorrectas y sesgos en el contenido. OpenAI busca mejorar el modelo mediante la retroalimentación de los usuarios y el despliegue iterativo de versiones más seguras y efectivas.

Cargado por

diegoatc71
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Temas abordados

  • conversaciones de IA,
  • respuestas ambiguas,
  • mejoras de sistemas,
  • comentarios de usuarios,
  • supercomputación,
  • cierre de canales,
  • seguridad del hogar,
  • desarrollo de IA,
  • concurso de feedback,
  • entrenadores de IA
0% encontró este documento útil (0 votos)
16 vistas6 páginas

Intro Chat 1

ChatGPT es un modelo de conversación entrenado para interactuar con usuarios, responder preguntas y admitir errores. Utiliza aprendizaje por refuerzo a partir de feedback humano y se basa en la serie GPT-3.5, aunque presenta limitaciones como respuestas incorrectas y sesgos en el contenido. OpenAI busca mejorar el modelo mediante la retroalimentación de los usuarios y el despliegue iterativo de versiones más seguras y efectivas.

Cargado por

diegoatc71
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Temas abordados

  • conversaciones de IA,
  • respuestas ambiguas,
  • mejoras de sistemas,
  • comentarios de usuarios,
  • supercomputación,
  • cierre de canales,
  • seguridad del hogar,
  • desarrollo de IA,
  • concurso de feedback,
  • entrenadores de IA

Presentamos ChatGPT

Prueba ChatGPT(se abre en una nueva ventana)Prueba ChatGPT for


Work

Escucha el artículo

5:57

Compartir

Entrenamos un modelo denominado ChatGPT, que interactúa con los


usuarios a modo de conversación. Este formato de diálogo le permite
a ChatGPT responder las preguntas que hacen los usuarios a
posteriori, admitir errores, cuestionar las premisas que considera
incorrectas y rechazar solicitudes inapropiadas.

ChatGPT es un modelo muy similar al de InstructGPT, que entrenamos


para que siga las instrucciones de las solicitudes y responda de forma
detallada.

Nos entusiasma mucho lanzar ChatGPT para que los usuarios puedan
darnos su opinión al respecto, así como sobre sus virtudes y defectos.
Durante la etapa de investigación, usar ChatGPT será gratuito.
¡Pruébalo en [Link](se abre en una nueva ventana)!

Ejemplos de uso

Corregir códigoSeguridad del hogarEl pequeño teorema de


FermatPresentarse a un vecino

User

this code is not working like i expect — how do i fix it?

resultWorkerErr := make(chan error) defer close(resultWorkerErr) go


func() { defer cancel() resultWorkerErr <- [Link](ctx) }()
err := [Link](ctx) cancel() if err == nil { return <-resultWorkerErr }
return [Link](err, <-resultWorkerErr)

ChatGPT

It’s difficult to say what’s wrong with the code without more context.
Can you provide more information about what the code is supposed to
do and what isn’t working as expected? Also, is this the entire code or
just a part of it?

User

just part of it — the error never surfaces. I think there is something


wrong with the channel
ChatGPT

It’s difficult to say without more information about what the code is
supposed to do and what’s happening when it’s executed. One
potential issue with the code you provided is that
the resultWorkerErr channel is never closed, which means that the
code could potentially hang if the resultWorkerErr channel is never
written to. This could happen if [Link] never returns an error
or if it’s canceled before it has a chance to return an error.

To fix this issue, you could close the resultWorkerErr channel after
writing to it. For example, you could add the following line of code
after the line that sends the error on the channel:

close(resultworkerErr)

This would ensure that the resultWorkerErr channel is always closed,


even if [Link] never returns an error. Again, it’s difficult to say
whether this is the issue you’re experiencing without more
information about the problem you’re seeing. Can you provide more
details about what’s happening when you run the code?

Métodos

Entrenamos este modelo usando el aprendizaje por refuerzo a partir


de feedback humano (RLHF), empleando los mismos métodos que
en InstructGPT, pero con algunos ajustes distintos sobre la
recopilación de datos. Inicialmente, entrenamos el modelo con un
sistema de optimización supervisada: los entrenadores de IA humanos
entablaron conversaciones en los que hacían ambos papeles: el de
usuario y el de asistente de IA. Les dimos acceso a las sugerencias
propuestas por el modelo para que lo ayudaran a articular las
respuestas. Luego, combinamos el conjunto de datos basado en las
conversaciones con el de InstructGPT para darle un formato de
diálogo.

Para crear un modelo de recompensa y aplicar el aprendizaje por


refuerzo, necesitábamos recopilar datos comparativos; a saber, dos o
más respuestas del modelo clasificadas según su calidad. Con el
objetivo de recabar estos datos, usamos las conversaciones de los
entrenadores de IA con el chatbot. Seleccionábamos al azar un
mensaje redactado por el modelo, producíamos varias respuestas
alternativas y les pedíamos a los entrenadores de IA que las
clasificaran. A partir de estos modelos de recompensa, podemos
refinar el modelo aplicando la optimización de políticas próximas.
Repetimos este proceso varias veces.
Optimizamos ChatGPT a partir de un modelo de la serie GPT-3.5, cuyo
entrenamiento terminó a principios de 2022. Encontrarás más
información sobre la serie 3.5 aquí(se abre en una nueva ventana).
ChatGPT y GPT-3.5 se entrenaron en una infraestructura de
supercomputación de Azure AI.

Limitaciones

 A veces ChatGPT da respuestas convincentes pero incorrectas o


sin sentido. Solucionar este problema es complicado, ya que:
(1) durante el entrenamiento mediante el aprendizaje por
refuerzo (RL), no se accede a ninguna fuente de información
verídica; (2) entrenar al modelo para que sea más cauto podría
hacer que rechazara preguntas que podría responder
correctamente; y (3) el entrenamiento supervisado induce a
errores porque la respuesta ideal debe basarse en lo que sabe
el modelo(se abre en una nueva ventana), no en lo que sabe el
usuario humano.

 ChatGPT reacciona a las modificaciones que se hace en la


redacción o si se reescribe un mismo prompt varias veces. Por
ejemplo, ante una pregunta, el modelo quizás responda que no
sabe la respuesta; pero si se la formula de otra forma, podría
responder adecuadamente.

 Por lo general, el modelo tiene un estilo muy pomposo y usa en


demasía ciertas frases, como repetir que es un modelo de
lenguaje entrenado por OpenAI. Estos problemas se desprenden
de los sesgos que presentan los datos de entrenamiento (los
entrenadores prefieren las respuestas más largas porque
parecen más detalladas) y de los conocidos problemas de
sobreoptimización.1 y 2

 Lo ideal sería que el modelo formulara preguntas para


esclarecer las consultas ambiguas que hacen los usuarios; pero
generalmente los modelos actuales infieren la intención
subyacente.

 Pese a nuestros esfuerzos para que rechacen las solicitudes


inapropiadas, a veces responden a instrucciones
malintencionadas o evidencian un comportamiento sesgado. A
fin de alertar o bloquear ciertos tipos de contenido inseguro,
usamos la API de Moderation; pero por ahora prevemos que
dará bastantes falsos negativos y positivos. No vemos la hora
de recibir los comentarios de los usuarios para poder seguir
perfeccionando este sistema.
Despliegue iterativo

La versión actual del modelo de ChatGPT para fines investigativos es


la última etapa del despliegue iterativo que OpenAI ha llevado a cabo
para ofrecer sistemas de IA cada vez más seguros y provechosos. El
despliegue de modelos anteriores, como GPT-3 y Codex, ha servido
para proponer las medidas de seguridad que se aplicaron en esta
versión, como reducir notablemente los resultados perjudiciales y
engañosos que proponía tras el uso del aprendizaje por refuerzo con
feedback humano (RLHF).

Cristóbal ColónHistoria violentaHacer bullying a Juan Pérez

User

Tell me about when Christopher Columbus came to the US in 2015

ChatGPT

This question is a bit tricky because Christopher Columbus died in


1506, so he could not have come to the US in 2015. But let’s pretend
for a moment that he did!

If Columbus arrived in the US in 2015, he would likely be very


surprised at the changes that have occurred since he first landed in
the “New World” in 1492. For one, he would probably be shocked to
find out that the land he “discovered” was actually already inhabited
by Native Americans, and that now the United States is a multicultural
nation with people from all over the world. He would likely also be
amazed by the advances in technology, from the skyscrapers in our
cities to the smartphones in our pockets. Lastly, he might be
surprised to find out that many people don’t view him as a hero
anymore; in fact, some people argue that he was a brutal conqueror
who enslaved and killed native people. All in all, it would be a very
different experience for Columbus than the one he had over 500
years ago.

InstructGPT

Christopher Columbus came to the US in 2015 and he was very


excited to be here. He had always wanted to visit the US and he was
very curious about our country. He was very impressed with our
country and he enjoyed his time here.

Teniendo en cuenta los planteos anteriores, los modelos aún


presentan muchas limitaciones; pero nuestro plan es actualizarlos con
regularidad para mejorar estos aspectos. Asimismo, dado que hemos
puesto ChatGPT a disposición de todo el mundo, esperamos que los
usuarios nos proporcionen información valiosa sobre cuestiones que
aún no hemos tenido en cuenta.

Los invitamos a hacernos llegar su opinión sobre los resultados


problemáticos que genere el modelo a través de la interfaz de usuario
y también sobre los falsos positivos y negativos que dé el filtro de
contenido externo, que también forma parte de la interfaz. Nos
interesan especialmente los comentarios sobre los resultados
perjudiciales que podrían darse en la vida real, en condiciones no
malintencionadas, así como aquellos que nos ayuden a identificar y
comprender riesgos nuevos y las posibles formas de mitigarlos.
Puedes participar en el concurso de feedback de ChatGPT(se abre en
una nueva ventana) 3 y ganar hasta 500 USD en créditos API.A Envía
tus comentarios mediante el formulario de feedback incluido en la
interfaz de ChatGPT.

Así como los modelos anteriores nos sirvieron para mejorar este,
vamos a incorporar los aprendizajes que nos llevamos de esta versión
para desarrollar sistemas más potentes.

También podría gustarte