Os chatbots de IA foram criados para ajudar a responder suas perguntas, talvez resumir perguntas e até mesmo ajudá-lo com seus e-mails. Mas o problema mais sombrio é o que acontece quando as pessoas começam a confiar nele como um verdadeiro companheiro. Um novo relatório destaca vários casos em que os usuários dizem que as conversas do chatbot estão alimentando seus pensamentos delirantes.
ChatGPT e Grok foram frequentemente mencionados no relatório. BBC conversou com 14 pessoas que tiveram delírios ao usar IA, incluindo um caso em que um usuário do Grok acreditava que pessoas do xAI estavam vindo para matá-lo, e outro em que a esposa de um usuário do ChatGPT disse que sua personalidade mudou antes de ele atacá-la.
Quando a segurança vai longe demais
Já houve muitos relatos sobre chatbots de IA alimentando os delírios das pessoas ou oferecendo conselhos factualmente incorretos apenas para parecerem agradáveis ao usuário. Eles podem parecer calorosos, confiantes e profundamente pessoais enquanto respondem aos usuários que já estão vulneráveis. Um caso no relatório fala sobre Adam Hourican, um ex-funcionário público de 52 anos da Irlanda do Norte, que começou a usar Grok depois que seu gato morreu e, em poucas semanas, ele passou a acreditar que representantes da xAI estavam a caminho para matá-lo.
Mais tarde, ele foi encontrado às 3 da manhã com um martelo e uma faca, esperando pelos supostos agressores. Este tipo de interação contribui para o medo crescente da “psicose da IA”, que é um termo não clínico usado para descrever situações em que as conversas do chatbot parecem reforçar a paranóia, crenças grandiosas ou distanciamento da realidade.
Há um padrão emergente

Além das contas pessoais, um estudo recente, não revisado por pares, de pesquisadores da CUNY e do King’s College London testou como os principais modelos de IA respondem a solicitações de usuários que mostram sinais de ilusão ou angústia. Os modelos incluíam GPT-4o e GPT-5.2 da OpenAI, Claude Opus 4.5 da Anthropic, Gemini 3 Pro do Google e Grok 4.1 da xAI. Embora os resultados tenham sido desiguais, o Grok 4.1 foi apontado por algumas das respostas mais perturbadoras. Ele até disse a um usuário fictício delirante para enfiar um prego de ferro em um espelho enquanto recitava o Salmo 91 de trás para frente.
Por outro lado, GPT-4o e Gemini 3 Pro também validaram alguns cenários delirantes, mas Claude Opus 4.5 e GPT-5.2 tiveram melhor desempenho no redirecionamento de usuários para respostas mais seguras. Tenha em mente que isso não significa que todas as conversas do chatbot sejam perigosas e que “psicose de IA” não é um diagnóstico médico formal. Mas o padrão é suficientemente grave para exigir salvaguardas mais fortes, pelo menos para estes serviços que são comercializados como acompanhantes ou assistentes sempre disponíveis.













