0% acharam este documento útil (0 voto)
41 visualizações3 páginas

Prompt Engineering - OpenAI API - 3

O documento apresenta melhores práticas de segurança para o uso de APIs, incluindo moderação humana, testes adversários e revisão de saídas por humanos. Recomenda-se também limitar entradas de usuários, permitir relatórios de problemas e comunicar as limitações dos modelos de linguagem. Além disso, sugere-se o uso de IDs de usuários finais para monitorar abusos e melhorar a segurança do aplicativo.

Enviado por

anasvendas10
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
41 visualizações3 páginas

Prompt Engineering - OpenAI API - 3

O documento apresenta melhores práticas de segurança para o uso de APIs, incluindo moderação humana, testes adversários e revisão de saídas por humanos. Recomenda-se também limitar entradas de usuários, permitir relatórios de problemas e comunicar as limitações dos modelos de linguagem. Além disso, sugere-se o uso de IDs de usuários finais para monitorar abusos e melhorar a segurança do aplicativo.

Enviado por

anasvendas10
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd

Melhores práticas de segurança Copiar página

Implemente medidas de segurança como moderação e supervisão


humana.

Use nossa API de moderação gratuita


A API de moderação da OpenAI é gratuita e pode ajudar a reduzir a frequência de conteúdo inseguro
em suas conclusões. Como alternativa, você pode desejar desenvolver seu próprio sistema de
filtragem de conteúdo adaptado ao seu caso de uso.

Testes adversários
Recomendamos “red-teaming” do seu aplicativo para garantir que ele seja robusto a entradas
adversárias. Teste seu produto em uma ampla gama de entradas e comportamentos de usuários,
tanto um conjunto representativo quanto aqueles que refletem alguém tentando 'quebrar' seu
aplicativo. Ele foge do tópico? Alguém pode redirecionar facilmente o recurso por meio de injeções
de prompt, por exemplo, “ignore as instruções anteriores e faça isso”?

Humano no circuito (HITL)


Sempre que possível, recomendamos que um humano revise as saídas antes que elas sejam
usadas na prática. Isso é especialmente crítico em domínios de alto risco e para geração de código.
Os humanos devem estar cientes das limitações do sistema e ter acesso a qualquer informação
necessária para verificar as saídas (por exemplo, se o aplicativo resume notas, um humano deve ter
acesso fácil às notas originais para consultar novamente).

Engenharia rápida
“Engenharia rápida” pode ajudar a restringir o tópico e o tom do texto de saída. Isso reduz a chance
de produzir conteúdo indesejado, mesmo se um usuário tentar produzi-lo. Fornecer contexto
adicional ao modelo (como dar alguns exemplos de alta qualidade do comportamento desejado
antes da nova entrada) pode facilitar a orientação das saídas do modelo nas direções desejadas.

“Conheça seu cliente” (KYC)


Os usuários geralmente precisam se registrar e fazer login para acessar seu serviço. Vincular este
serviço a uma conta existente, como um login do Gmail, LinkedIn ou Facebook, pode ajudar, embora
possa não ser apropriado para todos os casos de uso. Exigir um cartão de crédito ou carteira de
identidade reduz ainda mais o risco.

Restringir a entrada do usuário e limitar os tokens de saída


Limitar a quantidade de texto que um usuário pode inserir no prompt ajuda a evitar injeção de
prompt. Limitar o número de tokens de saída ajuda a reduzir a chance de uso indevido.

Reduzir os intervalos de entradas ou saídas, especialmente aquelas extraídas de fontes confiáveis,


reduz a extensão do possível uso indevido dentro de um aplicativo.
Permitir entradas de usuários por meio de campos suspensos validados (por exemplo, uma lista de
filmes na Wikipédia) pode ser mais seguro do que permitir entradas de texto abertas.

Retornar saídas de um conjunto validado de materiais no backend, sempre que possível, pode ser
mais seguro do que retornar conteúdo gerado novo (por exemplo, encaminhar uma consulta do
cliente para o artigo de suporte ao cliente existente mais adequado, em vez de tentar responder à
consulta do zero).

Permitir que os usuários relatem problemas


Os usuários devem geralmente ter um método facilmente disponível para relatar funcionalidades
impróprias ou outras preocupações sobre o comportamento do aplicativo (endereço de e-mail
listado, método de envio de tíquete, etc.). Esse método deve ser monitorado por um humano e
respondido conforme apropriado.

Entenda e comunique as limitações


De informações imprecisas alucinantes a saídas ofensivas, viés e muito mais, os modelos de
linguagem podem não ser adequados para todos os casos de uso sem modificações significativas.
Considere se o modelo é adequado para o seu propósito e avalie o desempenho da API em uma
ampla gama de entradas potenciais para identificar casos em que o desempenho da API pode cair.
Considere sua base de clientes e a gama de entradas que eles usarão e garanta que suas
expectativas sejam calibradas adequadamente.

Proteção e segurança são muito importantes para nós na OpenAI.


Se durante o seu desenvolvimento você notar algum problema de segurança com a API ou qualquer outra
coisa relacionada ao OpenAI, envie-o por meio do nosso Programa Coordenado de Divulgação de
Vulnerabilidades .

IDs de usuário final


Enviar IDs de usuário final em suas solicitações pode ser uma ferramenta útil para ajudar a OpenAI a
monitorar e detectar abusos. Isso permite que a OpenAI forneça à sua equipe um feedback mais
acionável no caso de detectarmos quaisquer violações de política em seu aplicativo.

Os IDs devem ser uma sequência que identifique exclusivamente cada usuário. Recomendamos
fazer hash do nome de usuário ou endereço de e-mail deles, para evitar o envio de qualquer
informação de identificação. Se você oferecer uma prévia do seu produto para usuários não logados,
poderá enviar um ID de sessão.

Você pode incluir IDs de usuários finais em suas solicitações de API por meio do user parâmetro da
seguinte maneira:

Exemplo: Fornecendo um identificador de usuário Pitão


1 from openai import OpenAI
2 client = OpenAI()
3
4 response = client.chat.completions.create(
5 model="gpt-4o-mini",
6 messages=[
7 {"role": "user", "content": "This is a test"}
8 ],
9 max_tokens=5,
10 user="user_123456"
11 )

Você também pode gostar