Início Tecnologia Antrópico versus Pentágono: o que realmente está em jogo?

Antrópico versus Pentágono: o que realmente está em jogo?

19
0

As últimas duas semanas foram definidas por um confronto entre o CEO da Anthropic, Dario Amodei, e o secretário de Defesa, Pete Hegseth, enquanto os dois lutavam pelo uso de IA pelos militares.

A Anthropic recusa-se a permitir que os seus modelos de IA sejam utilizados para vigilância em massa de americanos ou para armas totalmente autónomas que conduzem ataques sem intervenção humana. Ao mesmo tempo, o secretário Hegseth argumentou que o Departamento de Defesa não deveria ser limitado pelas regras de um fornecedor, argumentando que qualquer “uso legal” da tecnologia deveria ser permitido.

Na quinta-feira, Amodei sinalizou publicamente que a Anthropic não está recuando – apesar das ameaças de que sua empresa poderia ser designada como um risco para a cadeia de suprimentos. Mas com o ciclo de notícias avançando rapidamente, vale a pena revisitar exatamente o que está em jogo na luta.

Na sua essência, esta luta é sobre quem controla os poderosos sistemas de IA – as empresas que os constroem ou o governo que pretende implantá-los.

Com o que a Antrópica está preocupada?

Como dissemos acima, a Anthropic não quer que seus modelos de IA sejam usados ​​para vigilância em massa de americanos ou para armas autônomas, sem nenhum humano no circuito para decisões de mira e disparo. Os empreiteiros de defesa tradicionais normalmente têm pouco a dizer sobre a forma como os seus produtos serão utilizados, mas a Anthropic argumentou desde o seu início que a tecnologia de IA apresenta riscos únicos e, portanto, requer salvaguardas únicas. Do ponto de vista da empresa, a questão é como manter essas salvaguardas quando a tecnologia está a ser utilizada pelos militares.

As forças armadas dos EUA já dependem de sistemas altamente automatizados, alguns dos quais são letais. A decisão de usar força letal tem sido historicamente deixada aos humanos, mas existem poucas restrições legais ao uso militar de armas autônomas. O DoD não proíbe categoricamente sistemas de armas totalmente autônomos. De acordo com um Diretiva DOD 2023os sistemas de IA podem selecionar e atacar alvos sem intervenção humana, desde que cumpram determinados padrões e sejam revistos por altos funcionários da defesa.

É exatamente isso que deixa a Antrópica nervosa. A tecnologia militar é secreta por natureza, por isso, se os militares dos EUA estivessem a tomar medidas para automatizar a tomada de decisões letais, poderíamos não saber disso até que estivesse operacional. E se usasse os modelos da Anthropic, poderia ser considerado “uso legal”.

Evento Techcrunch

Boston, MA
|
9 de junho de 2026

A posição da Anthropic não é que tais usos devam ficar permanentemente fora de questão. É que seus modelos ainda não são capazes o suficiente para suportá-los com segurança. Imagine um sistema autônomo identificando erroneamente um alvo, intensificando um conflito sem autorização humana ou tomando uma decisão letal em uma fração de segundo que ninguém pode reverter. Coloque uma IA menos capaz no comando das armas e você terá uma máquina muito rápida e muito confiante, que é ruim em fazer apostas altas.

A IA também tem o poder de sobrecarregar a vigilância legal dos cidadãos americanos num grau preocupante. Ao abrigo das actuais leis dos EUA, a vigilância de cidadãos americanos já é possível, seja através da recolha de textos, e-mails e outras comunicações. A IA muda a equação ao permitir a detecção automatizada de padrões em grande escala, resolução de entidades em conjuntos de dados, pontuação preditiva de risco e análise comportamental contínua.

O que o Pentágono quer?

O argumento do Pentágono é que deveria ser capaz de implantar a tecnologia da Antrópico para qualquer uso legal que considere necessário, em vez de ser limitado pelas políticas internas da Antrópico em coisas como armas autónomas ou vigilância.

Mais especificamente, o secretário Hegseth argumentou que o Departamento de Defesa não deveria ser limitado pelas regras de um fornecedor e que se envolveria no “uso legal” da tecnologia.

Sean Parnell, principal porta-voz do Pentágono, disse em um Quinta-feira X postagem que o departamento não tem interesse em realizar vigilância doméstica em massa ou em implantar armas autônomas.

“Aqui está o que pedimos: permita que o Pentágono use o modelo da Antrópico para todos os fins legais”, disse Parnell. “Este é um pedido simples e de bom senso que evitará que a Anthropic comprometa operações militares críticas e potencialmente coloque nossos combatentes em risco. Não permitiremos que NENHUMA empresa dite os termos de como tomamos decisões operacionais.”

Ele acrescentou que a Anthropic tem até às 17h01 (horário do leste dos EUA) de sexta-feira para decidir. “Caso contrário, encerraremos nossa parceria com a Anthropic e os consideraremos um risco para a cadeia de suprimentos da DOW”, disse ele.

Apesar da posição do Departamento de que simplesmente não acredita que deva ser limitado pelas políticas de utilização de uma corporação, as preocupações do secretário Hegseth sobre a Antrópico parecem por vezes ligadas a queixas culturais. Em um discurso nos escritórios da SpaceX e xAI em janeiroHegseth criticou a “IA desperta” em um discurso que alguns viram como uma prévia de sua rivalidade com a Anthropic.

“O Departamento de Guerra AI não será acordado”, disse Hegseth. “Estamos construindo armas e sistemas prontos para a guerra, não chatbots para uma sala de professores da Ivy League.”

E agora?

O Pentágono ameaçou declarar a Antrópico um “risco da cadeia de abastecimento” – o que efetivamente coloca a Antrópico na lista negra de fazer negócios com o governo – ou invocar a Lei de Produção de Defesa (DPA) para forçar a empresa a adaptar o seu modelo às necessidades militares. Hegseth deu à Anthropic até às 17h01 de sexta-feira para responder. Mas com o prazo a aproximar-se, ninguém sabe se o Pentágono cumprirá a sua ameaça.

Esta não é uma luta da qual qualquer uma das partes possa facilmente abandonar. Sachin Seth, VC da Trousdale Ventures que se concentra em tecnologia de defesa, diz que um rótulo de risco da cadeia de suprimentos para a Anthropic pode significar “apagar as luzes” para a empresa.

No entanto, disse ele, se a Anthropic for retirada do DOD, isso poderá ser uma questão de segurança nacional.

“[The Department] teria que esperar de seis a 12 meses para que o OpenAI ou o xAI se atualizassem”, disse Seth ao TechCrunch. “Isso deixa uma janela de até um ano em que eles podem estar trabalhando não com o melhor modelo, mas com o segundo ou terceiro melhor.”

xAI está se preparando para se tornar classificado e substituir o Anthropic, e é justo dizer que determinado proprietário A retórica de Elon Musk sobre a questão de que a empresa não teria problemas em dar ao DOD controle total sobre sua tecnologia. Recente relatórios indicam que a OpenAI pode seguir as mesmas linhas vermelhas da Antrópica.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui