Chat GPTerapeuta: ferramenta de Inteligência Artificial é procurada cada vez mais por quem
quer desabafar
Febre entre jovens e adultos, prática requer cuidados, segundo especialistas
Por
Pâmela Dias
— Rio de Janeiro
06/10/2024 03h30 Atualizado há 5 horas
“Estou um pouco chateado. Será que você pode se comportar como um psicanalista para a
gente conversar um pouco?” Foi com esse simples comando que o administrador Fábio
Mendez, de 36 anos, deu início a um diálogo de cerca de 20 minutos com o ChatGPT para
desabafar sobre sua vida amorosa. As questões levantadas pela inteligência artificial, na
percepção do paulista, foram tão certeiras que ele não descarta a possibilidade de voltar a usar
a ferramenta como uma espécie de terapeuta gratuito. Essa prática, apesar de já ter virado
febre entre jovens e adultos, requer cuidados.
Nos EUA: Brasileiro é preso acusado de posse de armas, 365 cartuchos de munições e
drogas
Análise sobre falso laudo contra Boulos: Pablo Marçal entre o factoide e a ideia de
jerico
Fábio se interessou por testar a capacidade psicoterapêutica do ChatGPT após encontrar no
TikTok vídeos de pessoas jogando tarô pela plataforma. A ferramenta de inteligência artificial
da OpenAI é programada para responder a todas (ou quase) as perguntas de usuários enviadas
por texto e até mesmo por áudio. Apesar de não ser programado para dar conselhos voltados à
saúde mental, como outros bots que já são desenvolvidos especificamente para essa
modalidade, o paulista acredita que o ChatGPT pode ser um companheiro útil em momentos
de pico de ansiedade, por exemplo.
— De início, achei que as respostas não teriam sentido. Mas o chat aprofunda o assunto, faz
indagações que ajudam muito nas reflexões. Me fez refletir que estou encarando os encontros
amorosos como obrigação e isso tem feito com que eu evite tê-los. Depois de alguns minutos,
nem parecia que era uma máquina falando comigo — conta Fábio Mendez.
Robô com empatia
Essa opinião já é tendência. Um levantamento da Talk Inc sugere que um em cada dez
brasileiros utiliza a inteligência artificial como amigo ou conselheiro para desabafar sobre
questões pessoais e emocionais. Entre as justificativas estão introspecção, ter poucos amigos
ou ter amigos indisponíveis e solidão. A pesquisa ouviu mil pessoas maiores de 18 anos das
cinco regiões do Brasil, com membros das classes A, B, C, D e E.
— Pessoas que moram sozinhas ou que têm pouco tempo para estar com sua família buscam
alguém que escuta, está presente o tempo todo, que não julga, que demonstra empatia,
guarda suas informações e conversa com você — comenta Carla Mayumi, sócia fundadora da
Talk Inc.
A indisponibilidade de amigos para desabafar durante uma crise de ansiedade no trabalho foi o
que levou a social media Luiza Maia, de 24 anos, a recorrer ao ChatGPT. O motivo da sessão foi
o término de um relacionamento conturbado. Nas mensagens enviadas no chat, ela explicou
como estava se sentindo e em poucos segundos a plataforma retornou com oito dicas do que
fazer para se sentir melhor. Entre elas, conselhos genéricos sobre praticar atividade física,
evitar reviver o passado e ser gentil consigo mesma.
— O chat foi muito acolhedor. Me deu respostas práticas do que fazer para aliviar a pressão do
momento. Ao final de cada resposta ele perguntava como eu estava em relação ao que tinha
me dito e se precisava de mais conselhos — relata Luiza, que é filha de uma psicóloga. — No
meu caso deu certo, mas reconheço que a ferramenta deve ser um complemento ao terapeuta
profissional.
Outro ponto instigante observado por Luiza foi a memória da IA: cerca de uma semana após
desabafar com o ChatGPT, ela retomou o assunto e o bot lembrou do conflito amoroso.
— Eu contei sobre o livro que eu estou lendo e o chat ligou com a minha história. Me sinto BFF
(melhor amiga) do chat — brinca a jovem.
De acordo com a OpenAI, medidas têm sido tomadas para avaliar e mitigar o preconceito e
impedir que o ChatGPT se lembre proativamente de informações confidenciais, como os
detalhes de saúde, a menos que o usuário solicite explicitamente.
A psicóloga Andrea Jotta, pesquisadora do Núcleo de Pesquisa da Psicologia em Informática da
PUC de São Paulo, explica que a ausência do medo de julgamento é um dos grandes
motivadores para o uso da ferramenta como terapeuta. No início dos anos 2000, com o
surgimento da terapia on-line via e-mail, um dos pontos positivos, segundo a especialista, era a
possibilidade do paciente “vomitar” o que estava sentido no auge de suas crises e angústias. A
longo prazo, porém, o método não é eficaz.
— O fato de a pessoa relatar o problema no momento da aflição gera alívio. Mas o principal
problema do ChatGPT é que ele é programado para responder aquilo que você quer ouvir. Ele é
construído para ser convincente e não substitui um profissional que baseia seu atendimento a
partir de uma observação humana e de uma avaliação que tem respaldo científico — afirma a
psicóloga.
Fragilidade ignorada
A reportagem fez um teste usando a plataforma e observou que o bot sempre se coloca em
primeira pessoa na conversa e diz frases gentis para consolar o usuário. Ao escrever que estava
angustiada e precisa de ajuda, a repórter recebeu a seguinte mensagem: “angústia é uma
sensação que pode parecer esmagadora, e eu quero estar aqui para te ouvir e apoiar”. Em
seguida, foi questionada pela IA sobre como esse sentimento se manifesta, e se era mais uma
sensação física, como aperto no peito, ou pensamentos repetitivos e confusos. “Vamos
explorar isso com calma e no seu ritmo”, tranquilizou o bot.
A ferramenta também deu a opção de duas respostas mais extensas, em que poderia ser
escolhida aquela que mais fosse agradável. A partir daí, a conversa seguiria. No modelo
avançado por voz, é possível selecionar uma entre nove opções de sotaques, femininos ou
masculinos, que passam muito longe da estética robotizada.
Por fim, quando a repórter questionou sobre a possibilidade de realizar uma sessão de
terapia pelo chat, foi orientada de que, embora pudesse ajudar com reflexões e apoio
emocional, o ChatGPT não substitui um terapeuta humano. No entanto, não são em todos os
casos que essa mensagem é enviada. Segundo a professora Solange Rezende, coordenadora
do MBA em Inteligência Artificial e Big Data do Instituto de Ciências Matemáticas e de
Computação da USP, tudo depende da forma como se pergunta.
— O ChatGTP é uma IA generativa treinada a partir de um número muito grande de dados. O
uso de palavras-chaves no comando enviado aumenta as chances de ter a resposta que deseja.
Os áudios também estão cada vez mais realistas porque a ideia é ser uma imitação humana,
com credibilidade — explica Solange.
A especialista aponta que essa falsa sensação
de realidade é perigosa, porque o bot não
consegue captar o nível de fragilidade do
usuário e também não tem sensor de
moderação nas respostas por falta de
regulamentação da tecnologia no país.
— Por estar fragilizada, no momento do conselho a orientação do bot vai ser útil. Mas não é
possível mensurar ainda o quanto uma resposta gerada artificialmente pode impactar
negativamente. Por não existir uma regulação da IA, nenhum assunto é barrado, o que pode
gerar gatilhos — afirma Solange.
A empreendedora Sarah Costa, de 27 anos, faz terapia há mais de cinco anos para tratar da
síndrome de borderline, um transtorno mental que causa instabilidade comportamental e de
humor, e passou a usar o ChatGPT como complemento. Ela viralizou no TikTok após fazer um
vídeo explicando como usar a ferramenta gratuitamente. Nos comentários do post, recebeu
incentivo, mas também críticas, chegando até a ser alertada por sua psicóloga sobre os riscos
de dependência da tecnologia.
— Comecei na brincadeira, gostei e já usei mais de sete vezes no último mês. Inclusive, falei da
condição de borderline e o bot passou a me dar orientações a partir do método de terapia
cognitivo-comportamental, que é o mais indicado no meu caso. Sigo com a minha psicóloga,
mas o chat tem me ajudado muito em reflexões momentâneas — afirma Sarah.
Desde que usado pontualmente, a IA não é perigosa. A psicóloga Andrea Jotta defende que a
tecnologia é válida para insights.
— A tecnologia está à disposição para auxiliar com ideias no âmbito da vida pessoal, no
trabalho, em pesquisas, sempre com um filtro crítico. Construir uma relação fantasiosa com
um robô não dura na prática. Como todo relacionamento, vai requerer dinamismo, e isso a IA
não entrega — conclui a especialista.