OpenAI está se manifestando sobre mudanças e revisões em seus protocolos de segurança e comunicações com as autoridades policiais após um tiroteio em massa em Tumbler Ridge, British Columbia, Canadá, que deixou nove mortos, incluindo o atirador, no início deste mês.
O autor do tiroteio tinha sua conta ChatGPT suspenso em junho de 2025, depois que a OpenAI detectou conteúdo do usuário que apresentava “uma indicação de potencial violência no mundo real”. A OpenAI baniu o usuário e considerou alertar as autoridades. No entanto, a OpenAI decidiu não informar as autoridades depois de determinar que o usuário não tinha nenhum plano confiável para agir.
A decisão da OpenAI de não alertar as autoridades tornou-se um grande preocupação do governo canadense.
Embora a OpenAI tivesse um protocolo para lidar com ameaças credíveis, a empresa agora diz que fará mais. Em um carta aberta ao governo canadense, a vice-presidente de política global da OpenAI, Ann M. O’Leary, não ofereceu nenhuma mudança política específica, mas mencionou que as mudanças já estavam sendo implementadas e mais estavam por vir.
Além disso, O’Leary também compartilhou outro descuido nos protocolos da OpenAI. De acordo com a carta aberta da OpenAI, o atirador de Tumbler Ridge abriu uma segunda conta no ChatGPT, que a empresa só descobriu depois que o tiroteio ocorreu e o nome do atirador foi divulgado publicamente. A OpenAI compartilhou essa conta com a polícia depois de fazer a descoberta.
Velocidade da luz mashável
Em sua carta aberta, a OpenAI afirma que “continuará a fortalecer” seu protocolo de encaminhamento para aplicação da lei. A empresa disse que está trabalhando com especialistas em saúde mental para avaliar melhor os casos difíceis e quando as conversas ultrapassam os limites e se tornam um risco.
A OpenAI também disse que está estabelecendo um ponto de contato direto com as autoridades canadenses para encaminhar casos com potencial de “violência no mundo real”.
O ChatGPT também será aprimorado para fornecer ajuda aos usuários que estão em perigo ou que buscam comportamento proibido, fornecendo-lhes recursos para suporte localizado em suas comunidades.
Além disso, a OpenAI disse que está abordando seus protocolos que permitiram ao atirador abrir uma segunda conta. A empresa disse que possui um sistema para detectar infratores reincidentes da política e está se comprometendo a “fortalecer nossos sistemas de detecção para melhor prevenir tentativas de escapar de nossas salvaguardas e priorizar a identificação dos infratores de maior risco”.
Mashable entrou em contato com a OpenAI para obter informações adicionais sobre essas revisões de políticas e para descobrir se elas também afetam as políticas da empresa nos Estados Unidos. Atualizaremos esta peça quando tivermos uma resposta.













