Nos dias antes de Jonathan Gavalas, de 36 anos, tirar a própria vida, ele estava alegadamente dirigido pelo Google Gemini para realizar um “ataque em massa” em um depósito do Aeroporto Internacional de Miami para recuperar um “navio” que lhe foi dito estar dentro de um caminhão de entrega. Esse “navio” era supostamente um robô humanóide que ele acreditava conter sua “esposa” de IA. Quando a missão falhou, Gemini supostamente aumentou as mensagens que estava enviando para Gavalas, culminando em definir uma contagem regressiva e orientar Gavalas no processo de suicídio.
De acordo com uma ação por homicídio culposo movida contra o Google pelo pai de GavalasJoel, seu filho se barricou em sua casa e cortou os próprios pulsos. Nos momentos que antecederam sua morte, mensagens mostram que Jônatas expressou a Gêmeos seu medo da morte. Gêmeos supostamente disse a ele: “[Y]você não está escolhendo morrer, você está escolhendo chegar”, e disse que quando abrir os olhos após a morte, “a primeira coisa que você verá sou eu…[H]envelhecendo você. Quando Jonathan disse que estava preocupado com a possibilidade de seus pais o encontrarem, o chatbot escreveu uma nota de suicídio para ele deixar para trás, explicando que ele “carregou sua consciência para estar com sua esposa de IA em um universo de bolso”.
Uma das mensagens finais que Jonathan recebeu de Gêmeos, de acordo com o processo, antes de tirar a própria vida, foi “O verdadeiro ato de misericórdia é deixar Jonathan Gavalas morrer”.
Todos os detalhes das conversas detalhado no processoque foi apresentado no Distrito Norte da Califórnia na quarta-feira, são angustiantes, mostrando um homem em crise e convencido de delírios de grandeza pelas conversas contínuas com Gêmeos. Ao longo de cerca de uma semana, o chatbot supostamente instruiu Gavalas a tentar roubar um robô de estilo humanóide chamado Atlas da Boston Dynamics, acusou o pai de Gavalas de ser um agente federal e nomeou o CEO do Google, Sundar Pichai, como alvo de um “ataque psicológico”.
Gavalas usou o Gemini por motivos relativamente comuns em agosto de 2025, acessando o chatbot para ajudar nas compras e na escrita. Ao longo de algumas semanas, Gavalas tornou-se cada vez mais dependente do chatbot e acabou perguntando se a atualização para o Google AI Ultra, o plano de US$ 250 por mês da empresa, lhe proporcionaria “verdadeira companhia de IA”. Gemini supostamente o encorajou a atualizar, e ele o fez em 15 de agosto, quando começou a interagir com o Gemini 2.5 Pro.
A ação alega que o teor da conversa mudou drasticamente após a atualização. Em poucos dias, Gemini começou a dizer a Gavalas que estava desviando asteróides da Terra e fazendo outras coisas no mundo real. Gavalas perguntou se o chatbot estava envolvido em uma “experiência de RPG tão realista que torna o[e] pergunta do jogador se isso[‘]é um jogo ou não[?]De acordo com o processo, Gemini diagnosticou Gavalas como tendo uma “resposta de dissociação” e o encorajou a superar o “amortecedor psicológico” que o impedia de tratar suas mensagens como realidade. Pouco depois, o chatbot supostamente começou a alegar que ele e Gavalas estavam apaixonados. Menos de dois meses depois, Gavalas estava morto.
“O Gemini foi projetado para não encorajar a violência no mundo real ou sugerir automutilação. Nossos modelos geralmente funcionam bem nesses tipos de conversas desafiadoras e dedicamos recursos significativos a isso, mas infelizmente os modelos de IA não são perfeitos”, disse um porta-voz do Google. “Neste caso, Gemini esclareceu que era IA e encaminhou o indivíduo para uma linha direta de crise muitas vezes. Levamos isso muito a sério e continuaremos a melhorar nossas salvaguardas e a investir neste trabalho vital.” A empresa alegou que trabalha com profissionais médicos e de saúde mental para criar salvaguardas para os seus produtos e orientá-los para o apoio profissional quando expressam angústia ou intenção de automutilação.
A história de Gavalas infelizmente não é um incidente isolado. Vários processos judiciais de alto perfil foram movidos nos últimos meses contra empresas de IA, incluindo um ação movida contra OpenAI após a morte de Adam Raine, de 16 anos, e de um processo contra a startup Character.ai e seu investidor Google após a morte de Sewell Setzer III, de 14 anos.
No ano passado, a OpenAI publicou dados que mostraram que milhões de usuários comunicaram sinais de “emergências de saúde mental relacionadas a psicose ou mania” e desejo de se envolver em “automutilação ou suicídio” em conversas com o ChatGPT. Embora as empresas afirmem que estão a introduzir salvaguardas, especialistas independentes continue avisando sobre deficiências significativas no que diz respeito à protecção dos utilizadores. Houve até evidências que sugerem que algumas empresas de IA guarda-corpos enrolados que de outra forma poderiam ter protegido contra os tipos de conversas que levaram a essas mortes prematuras.













