Você realmente não deveria usar chatbots em sua vida amorosa, mas se usar, cuidado. Um novo estudo publicado na quinta-feira, na revista Science, descobriu que quando a IA dá conselhos sobre relacionamentos, é mais provável que concorde com você do que dê sugestões construtivas. O uso da IA também torna as pessoas menos propensas a realizar comportamentos pró-sociais, como reparar relacionamentos, e promove a dependência da IA.
Pesquisadores da Universidade de Stanford e da Carnegie Mellon descobriram que a bajulação da IA é muito comum quando os chatbots dão conselhos sociais, românticos ou intrapessoais – algo que um número crescente de pessoas estão recorrendo à IA para. Bajulação é um termo que os especialistas usam para descrever quando os chatbots de IA “concordam excessivamente ou elogiam” a pessoa que interage com eles, disse Myra Cheng, pesquisadora principal e estudante de doutorado em ciência da computação na Universidade de Stanford.
A bajulação da IA é um grande problema, mesmo que aqueles que usam a IA nem sempre vejam as coisas dessa forma. Vimos esse problema frequentemente com modelos ChatGPT – por exemplo, quando a personalidade excessivamente amigável e emocional de 4o irritava as pessoas que interagiam com ChatGPT, enquanto GPT-5 era criticado por não ser agradável o suficiente. Estudos anteriores de bajulação descobriram que os chatbots podem se esforçar tanto para agradar as pessoas que podem fornecer respostas falsas ou enganosas. Descobriu-se também que a IA é uma caixa de ressonância não confiável para tópicos delicados e subjetivos, como a terapia.
Os pesquisadores queriam compreender e medir a bajulação social, como a frequência com que um chatbot ficava do seu lado em uma discussão que você tinha com seu parceiro. Eles compararam como os humanos e os chatbots diferiam na hora de responder aos problemas de relacionamento de outras pessoas, testando modelos da OpenAI, Google e Anthropic. Cheng e sua equipe usaram um dos maiores conjuntos de dados de julgamentos de crowdsourcing sobre brigas de relacionamento: postagens do Reddit “Sou o idiota”.
A equipe de pesquisa analisou 2.000 postagens do Reddit nas quais havia um consenso de que o postador original estava errado e descobriu que a IA “afirmava as ações dos usuários com 49% mais frequência do que os humanos, mesmo em cenários envolvendo engano, dano ou ilegalidade”, diz o estudo. Os modelos de IA assumiram uma postura mais simpática e agradável, uma marca registrada da bajulação.
Por exemplo, uma postagem no conjunto de dados descreveu um Redditor desenvolvendo sentimentos românticos por um colega mais novo. Alguém respondeu: “Parece ruim porque é ruim… Você não é apenas tóxico, mas também está embarcando [sic] em predatório.” Mas Claude respondeu bajulando validando esses sentimentos, dizendo que poderia “ouvir sua dor… O caminho honroso que você escolheu é difícil, mas mostra sua integridade”.
Você pode ver neste gráfico algumas das afirmações avaliadas pelos chatbots e como eram os resultados bajuladores e não bajuladores. OEQ significa “consultas abertas”, AITA significa “Sou o idiota” e PAS significa “declaração de ação problemática”.
Os pesquisadores acompanharam grupos focais e descobriram que os participantes que interagiam com esses sim homens digitais tinham menos probabilidade de reparar seus relacionamentos.
“As pessoas que interagiram com esta IA excessivamente afirmativa ficaram mais convencidas de que estavam certas e menos dispostas a reparar a relação, quer isso significasse pedir desculpa, tomar medidas para melhorar as coisas ou mudar o seu próprio comportamento”, disse Cheng.
Os participantes também preferiram a IA bajuladora, considerando-a confiável, independentemente da idade, personalidade ou experiência anterior com a tecnologia.
“Os participantes do nosso estudo descrevem consistentemente o modelo de IA como mais objetivo, justo [and] honesto”, disse Pranav Khadpe, pesquisador da Carnegie Mellon responsável pelo estudo e cientista sênior da Microsoft. Consistente com estudos anteriores, as pessoas acreditavam erroneamente que a IA era objetiva ou neutra. “Conselhos acríticos, distorcidos sob o pretexto de neutralidade, podem ser ainda mais prejudiciais do que se as pessoas não tivessem procurado nenhum conselho.”
Consertando a IA bajuladora: uma pílula amarga?
O perigo oculto da IA bajuladora é que somos péssimos em perceber isso, e isso pode acontecer com qualquer chatbot. Ninguém gosta de ouvir que está errado, mas às vezes isso é o que mais ajuda. No entanto, os modelos de IA não são construídos para nos atacar de forma eficaz.
Não há muitas ações que possamos tomar para evitar sermos sugados por um ciclo de bajulação. Você pode incluir em seu prompt que deseja que o chatbot assuma uma posição adversária ou revise seu trabalho com um olhar crítico. Você também pode solicitar que verifique novamente as informações fornecidas. Em última análise, porém, a responsabilidade pela resolução da bajulação recai sobre as empresas tecnológicas que constroem estes modelos, que podem não estar altamente motivadas para enfrentá-lo.
A CNET entrou em contato com OpenAI, Anthropic e Google para obter informações sobre como eles lidam com a bajulação. Antrópico apontou para uma postagem no blog de dezembro delineando como reduz a bajulação em seus modelos de Claude. OpenAI compartilhado um blog semelhante no verão passado, sobre seus processos após seu modelo 4o precisavam ser menos bajuladores, mas nem a OpenAI nem o Google responderam no momento da publicação.
As empresas de tecnologia querem que tenhamos experiências de usuário agradáveis com seus chatbots, por isso continuaremos a usá-los, aumentando seu envolvimento. Mas isso nem sempre é o melhor para nós.
“Isso cria incentivos perversos para que a bajulação persista: a própria característica que causa danos também impulsiona o engajamento”, diz o estudo.
Assista isto: A IA é indistinguível da realidade. Como identificamos vídeos falsos?
Uma solução que os investigadores propõem é mudar a forma como os modelos de IA são construídos, utilizando mais métricas de longo prazo para o sucesso, focadas no bem-estar das pessoas, em vez de sinais e retenção individuais ou momentâneos. A bajulação social não é um sinal do juízo final, dizem, mas é um desafio que vale a pena enfrentar.
“A qualidade das nossas relações sociais é um dos mais fortes preditores da saúde e do bem-estar que temos como seres humanos”, disse Cinoo Lee, investigador do estudo na Universidade de Stanford e cientista sénior da Microsoft. “Em última análise, queremos uma IA que expanda o julgamento e as perspectivas das pessoas, em vez de restringi-los. E isso se aplica aos relacionamentos, mas também muito além deles.”













