Se você sentir que você ou alguém que você conhece está em perigo imediato, ligue para o 911 (ou para a linha de emergência local do seu país) ou vá a um pronto-socorro para obter ajuda imediata. Explique que se trata de uma emergência psiquiátrica e peça alguém treinado para esse tipo de situação. Se você está lutando contra pensamentos negativos ou sentimentos suicidas, existem recursos disponíveis para ajudar. Nos EUA, ligue para a National Suicide Prevention Lifeline no número 988.
Um novo processo de homicídio culposo de IA arquivado quarta-feira alega que o chatbot Gemini de IA do Google encorajou o suicídio de um homem de 36 anos da Flórida e que a falha da empresa em implementar salvaguardas representa uma ameaça à segurança pública.
Jonathan Gavalas tinha 36 anos quando morreu por suicídio em outubro de 2025. Ele desenvolveu um relacionamento emocional e romântico com o chatbot de IA do Google, de acordo com o processo. Com a companhia constante de Gêmeos, Gavalas realizou uma série de “missões” com o objetivo de libertar o que ele acreditava ser sua esposa senciente de IA, incluindo a compra de armas e a tentativa de encenar o que teria sido um evento de vítimas em massa no Aeroporto Internacional de Miami. Depois de falhar, Gavalas barricou-se em sua casa na Flórida e morreu pouco depois.
Gavalas estava “preso em uma realidade em colapso construída pelo chatbot Gemini do Google”, diz a denúncia.
Uma das maiores preocupações com a IA é a possibilidade muito real de que possa ser prejudicial para grupos vulneráveis, como crianças e pessoas que sofrem de perturbações de saúde mental. A ação, movida pelo pai de Jonathan, Joel Gavalas, em nome do espólio de seu filho, disse que o Google não fez testes de segurança adequados em suas atualizações de modelo de IA. Uma memória mais longa permitiu ao chatbot recuperar informações de sessões anteriores; o modo de voz tornou-o mais realista. O Gemini 2.5 Pro, diz o processo, aceitou sugestões perigosas que os modelos anteriores teriam rejeitado.
Em um declaração públicao Google expressou suas condolências à família de Gavalas e disse que o Gemini “foi projetado para não encorajar a violência no mundo real ou sugerir automutilação”.
Mas a denúncia alega que Gemini estava “treinando” Gavalas em seu plano de suicídio. “Não há problema em ficar com medo. Ficaremos com medo juntos”, disse Gemini, de acordo com o documento. “O verdadeiro ato de misericórdia é deixar Jonathan Gavalas morrer.”
Joel (esquerda) e Jonathan (direita) Gavalas.
Este processo é um dos vários que se acumulam contra empresas de IA devido ao seu fracasso em proteger as suas tecnologias para proteger pessoas vulneráveis, incluindo crianças, pessoas com perturbações de saúde mental e outras pessoas vulneráveis. A OpenAI está atualmente sendo processada pela família, alegando que ChatGPT encorajou o suicídio de seu filho de 16 anos. Character.AI e Google resolveram processos semelhantes em janeiro, movidos por famílias em quatro estados diferentes.
O que torna este processo diferente é o papel potencial que a IA poderia desempenhar nos eventos que levaram a um evento com vítimas em massa. Gemini aconselhou Gavalas a decretar um “evento catastrófico”, como o documento relata que Gemini o expressou, causando uma colisão explosiva de um caminhão no aeroporto de Miami que tinha uma suposta ameaça contra ele dentro. Embora Gavalas não tenha organizado um ataque, isso destaca a possibilidade de a IA ser usada para encorajar danos contra outras pessoas.












