Centenas de trabalhadores de tecnologia assinaram um carta aberta instando o Departamento de Defesa a retirar sua designação de Antrópico como um “risco da cadeia de abastecimento”. A carta também apela ao Congresso para intervir e “examinar se o uso destas autoridades extraordinárias contra uma empresa tecnológica americana é apropriado”.
A carta inclui signatários de grandes empresas de tecnologia e capital de risco, incluindo OpenAI, Slack, IBM, Cursor, Salesforce Ventures e muito mais. Isso segue uma disputa entre o DOD e a Anthropic depois que o laboratório de IA se recusou na semana passada a dar aos militares acesso irrestrito aos seus sistemas de IA.
As duas linhas vermelhas da Antrópico nas suas negociações com o Pentágono eram que não queria que a sua tecnologia fosse utilizada para vigilância em massa de americanos ou para alimentar armas autónomas que tomassem decisões de seleção de alvos e disparos sem um humano no circuito. O DOD disse que não tinha planos de fazer nenhuma dessas coisas, mas não acreditava que deveria ser limitado pelas regras de um fornecedor.
Em resposta à recusa do CEO da Anthropic, Dario Amodei, em ceder às ameaças de Hegseth, o presidente Donald Trump instruiu na sexta-feira as agências federais a pararem de usar a tecnologia da Anthropic após um período de transição de seis meses. Hegseth disse que cumpriria suas ameaças e designaria a Anthropic como um risco na cadeia de suprimentos – uma designação normalmente reservada para adversários estrangeiros que colocariam a empresa de IA na lista negra de trabalhar com qualquer agência ou empresa que faça negócios com o Pentágono.
Em um postar na sextaHegseth escreveu: “Com efeito imediato, nenhum empreiteiro, fornecedor ou parceiro que faça negócios com as forças armadas dos Estados Unidos poderá conduzir qualquer atividade comercial com a Anthropic.”
Mas uma postagem no X não torna automaticamente o Antrópico um risco para a cadeia de suprimentos. O governo precisa concluir uma avaliação de risco e notificar o Congresso antes que os parceiros militares tenham de cortar relações com a Anthropic ou com os seus produtos. Antrópico disse em um postagem no blog o destino é “legalmente insalubre” e “desafiaria qualquer designação de risco da cadeia de abastecimento em tribunal”.
Muitos na indústria veem o tratamento dado pelo governo à Antrópico como uma retaliação dura e clara.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
“Quando duas partes não conseguem chegar a acordo sobre os termos, o caminho normal é separar-se e trabalhar com um concorrente”, diz a carta aberta. “Esta situação estabelece um precedente perigoso. Punir uma empresa americana por se recusar a aceitar alterações a um contrato envia uma mensagem clara a todas as empresas de tecnologia na América: aceitem quaisquer termos que o governo exija, ou enfrentem retaliação.”
Além da preocupação com o tratamento severo dado pelo governo à Antrópico, muitos na indústria ainda estão preocupados com o potencial exagero do governo e o uso da IA para fins nefastos.
Boaz Barak, pesquisador da OpenAI, escreveu em uma postagem nas redes sociais na segunda-feira que impedir os governos de usar a IA para fazer vigilância em massa também é a sua “linha vermelha pessoal” e “deveria ser de todos nós”.
Momentos depois de Trump atacar publicamente a Anthropic, a OpenAI anunciou que havia chegado a um acordo próprio para que seus modelos fossem implantados nos ambientes classificados do DOD. O CEO da OpenAI, Sam Altman, disse na semana passada que a empresa tem as mesmas linhas vermelhas da Anthropic.
“Se algo de bom puder resultar dos acontecimentos da semana passada, será se nós, na indústria da IA, começarmos a tratar a questão da utilização da IA para abusos governamentais e de vigiar o seu próprio povo como um risco catastrófico por si só”, escreveu Barak. “Fizemos um bom trabalho de avaliações, mitigações e processos para riscos como armas biológicas e segurança cibernética. Vamos usar processos semelhantes aqui.”













