Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia, apareceu na CNBC na quinta-feira, onde enfrentou questões sobre a designação de Antrópico pelo Pentágono como um risco na cadeia de abastecimento. Michael tentou defender que a Anthropic era uma ameaça única à segurança nacional americana, uma postura totalmente confusa quando os militares dos EUA ainda usam o modelo de IA da Anthropic, Claude.
“Não podemos ter uma empresa que tenha uma preferência política diferente que está incorporada no modelo através da sua constituição, da sua alma, das suas preferências políticas, poluindo a cadeia de abastecimento para que os nossos combatentes obtenham armas ineficazes, armaduras ineficazes, proteção ineficaz”, argumentou Michael em CNBC.
A “alma” é uma referência ao “Visão geral da alma”documento orientador embutido em Claude que influencia suas interações com os usuários e sua “personalidade”. No final do ano passado, uma versão do documento foi descoberta por um usuário e ganhou as manchetes por um breve período. Incluía orientações como “ser verdadeiramente útil aos humanos é uma das coisas mais importantes que Claude pode fazer tanto pela Antrópico quanto pelo mundo”. A startup de IA posteriormente confirmou a legitimidade do documento, dizendo que era um trabalho em andamento e, em janeiro, o documento foi divulgado na íntegra como “Constituição de Claude.”
O Pentágono deu à Anthropic um ultimato no final de Fevereiro de que teria de levantar as barreiras de protecção que proíbem Claude de ser utilizado na vigilância doméstica em massa e em armas totalmente autónomas ou correria o risco de ser rotulado como um risco na cadeia de abastecimento. A Antrópico recusou, e o Pentágono deu à empresa essa designação, algo que nunca havia sido usado contra uma empresa norte-americana antes.
Emil Michael, funcionário do DoD, ao designar a Anthropic como um risco na cadeia de suprimentos – “O modelo deles tem uma alma, uma ‘constituição’ – não a Constituição dos EUA. Outro dia, o modelo deles era ‘ansioso’ e eles acreditam que tem 20% de chance de ser sentimento e ter sua própria capacidade de fazer… pic.twitter.com/D1aPSJYTaJ
-Aaron Rupar (@atrupar) 12 de março de 2026
A Antrópico está agora processando, e o Pentágono levará os próximos seis meses para tirar Claude de seu sistema. Andrew Ross Sorkin, da CNBC, perguntou a Michael sobre a contradição no fato de os militares dos EUA alegarem que Claude era uma ameaça terrível à segurança nacional, ao mesmo tempo em que não chegavam a uma dissociação imediata.
“Se, de facto, este fosse e é um risco genuíno para a cadeia de abastecimento, não estariam a remover imediatamente este serviço de todo o Pentágono?” Sorkin perguntou. O apresentador da CNBC salientou então que Claude ainda estava a ser usado “neste momento” no Irão, e há relatos da Reuters e de outros lugares de que o Pentágono e outras partes do governo dos EUA estavam a explorar um “período de extensão” para usá-lo por ainda mais tempo.
“Se fosse um risco genuíno para a cadeia de abastecimento e não fizesse parte de uma negociação mais ampla, o que algumas pessoas consideram uma abalada política, por que não o removeria imediatamente?” Sorkin perguntou.
Michael tem sido extremamente hostil ao CEO da Anthropic, Dario Amodei, de acordo com vários relatos, mas insistiu que não era punitivo e que levaria tempo para tirar Claude de lá.
“Se eles nunca tivessem entrado nos sistemas do departamento, isso não seria um problema e eles poderiam seguir em frente. Mas eles estão incorporados em nossos sistemas. E como você sabe, Andrew, não é possível simplesmente destruir um sistema que está profundamente enraizado da noite para o dia.”
Michael continuou argumentando que “estamos observando isso de perto, garantindo que temos o controle para que não haja nenhuma maneira de o modelo ser corrompido ou de a ameaça interna fazer algo através dele”, referindo-se à possibilidade de Claude poder fazer algo perigoso e contra os interesses militares.
“Mas a ameaça à cadeia de fornecimento é real, mas também temos que nos afastar dela, e isso não acontece da noite para o dia. Este não é apenas o Outlook, onde você pode excluí-lo do seu desktop”, argumentou Michael.
Esse argumento pode fazer sentido para algumas pessoas que não pensam muito sobre isso. Mas evita o fato de que não é para isso que serve uma designação de risco na cadeia de suprimentos. Quando o sistema de segurança nacional dos EUA liga para os fabricantes de hardware chineses como Huawei um risco na cadeia de abastecimento, eles estão preocupados que o governo chinês possa ter acesso aos dispositivos dos EUA através de algum tipo de backdoor.
Quando uma empresa suíça de segurança cibernética com ligações russas recebeu a designação de risco da cadeia de abastecimento do Gabinete do Diretor de Inteligência Nacional (DNI) em 2025, foi igualmente devido à preocupação de que os dados protegidos pela empresa pudessem ser comprometido. O governo dos EUA não queria que nenhum dado mantido pela comunidade de inteligência caísse em mãos erradas, e qualquer software ofensivo precisava ser denunciado no prazo de três dias e removido “imediatamente”.
Se algo que representasse um risco legítimo para a segurança nacional dos EUA estivesse presente no equipamento militar americano neste momento, seria arrancado imediatamente, e eles começariam a usar caneta e lápis para combater esta guerra, e não a apostar com uma ameaça potencial real. Ou pelo menos é isso que um militar inteligente faria.
A diferença com o Antrópico não é que eles realmente representem um risco; é que eles colocaram barreiras de proteção que não permitirão dois casos de uso muito específicos que a empresa acredita que criariam um ambiente perigoso ou violariam a Constituição dos EUA.
A Anthropic disse que o motivo pelo qual a empresa não quer armas autônomas nem é por princípio, é porque eles não acreditam que Claude possa fazer isso com segurança. Mas Hegseth e os gênios do Pentágono não se importam e vão punir a Antrópico por não dobrar os joelhos.












