O presidente Donald Trump pediu na sexta-feira que as agências federais dos EUA parassem de usar o Claude AI da Antrópico depois que a empresa se recusou a conceder permissão ao Departamento de Defesa para usá-lo para vigilância doméstica em massa ou para sistemas de armas totalmente autônomos.
O presidente postado na plataforma Truth Social, de sua propriedade, que está ordenando ao governo federal que “CESSE IMEDIATAMENTE” o uso das ferramentas da Anthropic, dizendo que haveria uma eliminação progressiva de seis meses para agências como o Departamento de Defesa. Ele também condenou a Anthropic como uma “EMPRESA RADICAL DE ESQUERDA, ACORDADA”. A postagem sinalizou o último passo em um confronto que se intensificou significativamente esta semana entre a Anthropic e o governo federal.
Claude é amplamente utilizado em todo o Pentágono, inclusive em sistemas classificados, mas a administração Trump tem procurado usar a tecnologia para “qualquer propósito legal”. A Anthropic insistiu no seu contrato existente que a tecnologia não fosse utilizada para vigilância em massa dos americanos ou em sistemas de armas ofensivas autónomas sem intervenção humana.
No início desta semana, o secretário de Defesa Pete Hegseth disse o CEO da Anthropic, Dario Amodei que ele invocaria poderes raramente utilizados para forçar a Antrópico a deixar o Pentágono usar Claude para qualquer fim legal ou rotular a empresa como um risco na cadeia de abastecimento – colocando em risco a sua utilização pelo governo ou por empreiteiros de defesa. Hegseth deu à Anthropic um prazo de sexta-feira para cumprir.
O CEO da Anthropic, Dario Amodei, disse em um declaração que a empresa, que foi fundada com foco declarado na segurança da IA, “não pode, em sã consciência, aderir a [the Pentagon’s] solicitar” que remova as disposições contratuais que determinam que Claude não pode ser usado em sistemas de armas totalmente autônomos ou para vigilância doméstica.
Leia mais: As câmeras circulares da Amazon se aprofundam na vigilância policial e governamental
Preocupações com IA e vigilância em massa
Amodei levantou preocupações de que a lei não tenha alcançado o potencial de vigilância em massa dos americanos. O governo já pode comprar informações como o histórico de navegação dos americanos e registos de movimentos individuais sem mandado, mas a inteligência artificial aumenta os riscos. “A IA poderosa torna possível reunir esses dados dispersos e individualmente inócuos em uma imagem abrangente da vida de qualquer pessoa – automaticamente e em grande escala”, escreveu ele.
Michael Pastor, reitor de programas de direito tecnológico da Faculdade de Direito de Nova York, disse por e-mail que é típico do direito contratual que os envolvidos busquem clareza nos termos. “A Anthropic está certa em pressionar fortemente sobre o que significa ‘para fins legais’”, disse ele. “Se o Pentágono não estiver disposto a esclarecer se usaria a tecnologia da Anthropic para vigilância doméstica em massa, isso levanta bandeiras que a Anthropic parece justificada em agitar.”
Claude da Antrópico é supostamente o sistema de IA mais amplamente usado pelos militares dos EUA. As alternativas podem incluir ferramentas da OpenAI, Google ou xAI de Elon Musk.
Em um memorando interno relatado pelo Wall Street Journal Sexta-feira, o CEO da OpenAI, Sam Altman, teria dito aos funcionários que a empresa tem as mesmas linhas vermelhas da Anthropic – sem vigilância doméstica em massa ou armas ofensivas autônomas. Altman disse acreditar que essas proteções poderiam ser gerenciadas por meio de requisitos técnicos, como a exigência de que modelos sejam implantados na nuvem. (Divulgação: Ziff Davis, empresa controladora da CNET, em 2025 entrou com uma ação judicial contra a OpenAI, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)
Funcionários do Google e da OpenAI divulgaram um petição apelando às suas empresas para que apoiem a Anthropic na recusa de permitir a utilização de modelos de IA para vigilância doméstica em massa ou sistemas de armas letais totalmente autónomos. A petição dizia que o Pentágono está “tentando dividir cada empresa com medo de que a outra ceda. Essa estratégia só funciona se nenhum de nós souber qual é a posição dos outros”.
Tal como acontece com a tecnologia de consumo, os sistemas de inteligência artificial têm sido amplamente adoptados em casos governamentais e militares. Estas ferramentas viram as suas capacidades crescer significativamente apenas nos últimos anos e esse ritmo de mudança não diminuiu. A regulamentação e a supervisão da IA não acompanharam. A IA ampliou os danos potenciais da vigilância corporativa ou governamental, tornando-a mais fácil e barata.
Pastor disse que esta disputa pode ter ramificações significativas sobre a influência que os governos e as empresas de tecnologia têm uns contra os outros quando as suas opiniões sobre o uso apropriado da tecnologia entram em conflito. “A Antrópico pode sentir que ceder aqui abre uma caixa de Pandora de usos para os quais Claude poderia ser utilizado”, disse ele.













