O Departamento de Defesa, conhecido sob a administração Trump como Departamento de Guerra, acaba de designar oficialmente a empresa de IA Anthropic como um “risco da cadeia de abastecimento” para a segurança nacional. Mas a Anthropic não acredita nisso.
“Não acreditamos que esta ação seja legalmente válida e não vemos outra escolha a não ser contestá-la no tribunal”, escreveu o CEO da Anthropic, Dario Amodei, em um comunicado. declaração resposta à disputa em curso. Amodei destacou ainda que a designação não atinge a maioria dos clientes da Antrópico.
A Anthropic está “orgulhosa do trabalho” que realizou junto com o governo federal no “apoio aos combatentes da linha de frente com aplicações como análise de inteligência, modelagem e simulação, planejamento operacional, operações cibernéticas e muito mais”, disse Amodei.
A disputa começou sobre o uso potencial da tecnologia de IA da Anthropic para realizar vigilância doméstica em massa e para alimentar armas autônomas como drones. A relação entre a Antrópica e os militares dos EUA deteriorado na semana passada, depois que a empresa de IA ganhou um contato de US$ 200 milhões do governo federal – mas buscou garantias de que sua tecnologia não seria usada para vigilância ou armas que pudessem disparar sem humanos no circuito.
O governo dos EUA não concordou com os termos da Anthropic e ameaçou designar a empresa como um risco na cadeia de abastecimento, o que fez agora. Trump também emitiu uma ordem executiva que diz a todas as agências federais para pararem de usar a IA da Antrópica.
Velocidade da luz mashável
Amodei pediu desculpas pelo vazamento de um memorando interno e confirmou relatórios recentes que a Anthropic e o Departamento de Defesa reentraram nas negociações. Se os dois lados não chegarem a um acordo, a Anthropic ajudará o governo num período de transição, disse Amodei.
O CEO também fez referência ao acordo do governo dos EUA com a OpenAI, feito na sequência da disputa antrópica. Até a OpenAI “caracterizou” seu acordo com o governo dos EUA como “confuso”, disse ele.
O CEO da OpenAI, Sam Altman, foi forçado para resolver o negócio depois de receber uma resposta significativa dos usuários.
“Nossa prioridade mais importante neste momento é garantir que nossos combatentes e especialistas em segurança nacional não sejam privados de ferramentas importantes no meio de grandes operações de combate”, escreveu Amodei. “A Anthropic fornecerá nossos modelos ao Departamento de Guerra e à comunidade de segurança nacional, a um custo nominal e com o apoio contínuo de nossos engenheiros, pelo tempo que for necessário para fazer essa transição, e enquanto nos for permitido fazê-lo.”
Como o Jornal de Wall Street relatado anteriormente, os militares dos EUA já usaram os modelos Claude da Antrópico para ajudar na realização de ataques no Irã.













