Em sua denúncia da Anthropic, o Secretário de Defesa (ou Secretário de Guerra, se preferir) Pete Hegseth postado em X que “Os Termos de Serviço do altruísmo defeituoso da Anthropic nunca superarão a segurança, a prontidão ou a vida das tropas americanas no campo de batalha” e, em seguida, acrescentou na mesma postagem: “A Anthropic continuará a fornecer ao Departamento de Guerra seus serviços por um período não superior a seis meses para permitir uma transição perfeita para um serviço melhor e mais patriótico”.
Ele também caracterizou a postura da Anthropic, mantendo-se firme contra hipotéticos usos futuros de seus produtos para vigilância em massa ou armamento totalmente autônomo, como “duplicidade” e uma “traição” ao declarar a Antrópico um risco para a cadeia de suprimentos, e proibindo o uso de seus produtos entre empreiteiros militares.
Quando as ações de alguém chegam ao nível de traição contra mim – uma adaga nas costas, em outras palavras – eu costumo acabar com eles, mas o início de uma nova grande guerra estava a apenas algumas horas de distância quando Hegseth disse isso, e então, de acordo com reportagem do Wall Street Journal e Eixosparece que Hegseth arrancou a proverbial adaga e continuou trabalhando com a Anthropic.
O Journal afirma que o Comando Central do Pentágono (CENTCOM) utiliza Claude da Antrópico em alguma capacidade para “avaliações de inteligência, identificação de alvos e simulação de cenários de batalha”.
Como observei ontem, o aplicativo móvel Claude voltado para o consumidor tem subido nas paradas, alcançando novos patamares de popularidade desde que Donald Trump declarou a equipe da Anthropic um bando de “malucos de esquerda”. Na época, Claude era o aplicativo gratuito classificado em segundo lugar na App Store da Apple, mas Ryan Donegan, porta-voz da Anthropic, enviou um e-mail ao Gizmodo na noite de ontem para dizer que “atingiu o primeiro lugar na App Store dos EUA, um recorde histórico. Superando o ChatGPT como o aplicativo mais baixado”.
No entanto, não está claro quanto dessa nova popularidade está ligada ao conflito da Antrópico com o governo, já que, de acordo com Donegan, as inscrições diárias para Claude triplicaram nos últimos quatro meses.
A OpenAI, por sua vez, alardeou um vínculo cada vez mais profundo com o Pentágono graças a um novo acordo envolvendo aplicações militares de produtos OpenAI em casos de uso classificados. Anthropic, “pode ter desejado mais controle operacional do que nós”, CEO da OpenAI, Sam Altman desde então declarou.
De qualquer forma, a Anthropic e a OpenAI estão ambas lidando com hipóteses sobre o futuro. Não há killbots movidos a ChatGPT operando repentinamente no Irã por causa do novo acordo da OpenAI com o governo. Mas aparentemente houve operações informadas, de uma forma ou de outra, pela modelagem e pesquisa baseadas em Claude.
E todas as indicações são de que tais usos contam com a aprovação do CEO da Anthropic, Dario Amodei. “Continuamos interessados em trabalhar com eles, desde que esteja alinhado com nossas linhas vermelhas”, disse Amodei. disse ontem do Pentágono.













