Você deve ter ouvido falar que o Departamento de Defesa e a Anthropic estão brigando pelas grades de proteção da empresa de IA para Claude. Todos os dias surgem novas fugas de informação, e agora, o Washington Post está a relatar que o Pentágono alegadamente apresentou um cenário envolvendo um ataque de mísseis nucleares contra os EUA como uma forma manipuladora de perguntar se seria autorizado a utilizar o seu modelo de IA para defender o país.
“A resposta do presidente-executivo da Anthropic, Dario Amodei, irritou o Pentágono, de acordo com o funcionário, que caracterizou a resposta do CEO como: Você poderia nos ligar e nós resolveríamos isso”, o Washington Post relatórios.
O Pentágono não gostou dessa resposta, é claro, e a Antthropic nega a conta. Mas o facto de estarmos a ter esta discussão é um grande choque para os sentidos quando pensamos sobre o futuro da IA. Especialmente porque o secretário da Defesa, Pete Hegseth, ameaça invocar a Lei de Produção de Defesa para retirar as barreiras de protecção de Claude e permitir que a IA se envolva em coisas como vigilância doméstica em massa e guerra totalmente automatizada.
Os líderes militares dos EUA aparentemente querem usar a IA em todas as situações sobre as quais a ficção científica dos últimos 80 anos nos alertou. E é meio estranho que um inverno nuclear induzido pela IA possa chegar antes que os robôs tomem todos os nossos empregos.
Quais empregos estão sendo substituídos?
O aumento da automação sempre significou uma perda de empregos. Esses receios foram mais pronunciados ao longo do século passado no trabalho de colarinho azul, onde as máquinas substituíram o trabalho manual de tantos seres humanos nas fábricas.
Mas a ascensão da IA nos últimos anos trouxe esses receios para o mundo dos colarinhos brancos, onde muitos americanos de classe média na chamada economia da informação temem que estejam prestes a ser substituídos pelo ChatGPT. E eles estão certos em estar preocupados. Block anunciou na quinta-feira que a empresa está demitindo 40% de sua força de trabalho porque a IA pode fazer o trabalho. Mas o CEO de Block também admitiu que a sua empresa contratou em excesso durante a pandemia, levantando suspeitas sobre as suas proclamações grandiosas sobre a IA.
Ainda não houve demissões em massa em toda a economia, mas certamente sentimentos como se isso estivesse por vir, quer se materialize ou não.
Abandone suas grades de proteção ou você odeia a América
Ao mesmo tempo, estamos vendo surgir outro perigo da IA que é indiscutivelmente muito mais importante: a guerra totalmente automatizada.
Pete Hegseth se encontrou com o CEO da Anthropic, Dario Amodei, na terça-feira e entregou um ultimato. Ou tiramos a Claude das suas salvaguardas, ou a Anthropic será rotulada como um “risco da cadeia de abastecimento”, uma designação que nunca foi usada para rotular uma empresa americana antes.
Além disso, Hegseth supostamente ameaçou invocar a Lei de Produção de Defesa, que permitiria ao Pentágono forçar a Antrópica a se livrar dessas grades de proteção de qualquer maneira. Os EUA não estão oficialmente em guerra e não há nenhuma emergência clara que exija a invocação da Lei de Produção de Defesa.
É uma posição difícil para a Anthropic, e a empresa divulgou um comunicado na quinta-feira dizendo que não concordaria com as exigências dos militares. O prazo para a Anthropic concordar é às 17h01 horário do leste dos EUA na sexta-feira, então veremos o que o Pentágono decidirá fazer.
Tudo parece terrivelmente manipulador, remetendo aos argumentos pós-11 de setembro que você ouviria para apoiar a tortura nos anos 2000. Você afogaria alguém se ele soubesse os detalhes sobre um iminente ataque com bomba suja nos EUA? Você conectaria os testículos de alguém a uma bateria de carro se isso significasse impedir outro 11 de setembro?
A IA não está pronta para lidar com armas nucleares
A ideia de que deveríamos tornar as nossas armas, nucleares ou outras, totalmente autónomas é absolutamente ridícula se ouvirmos as pessoas que realmente constroem estas coisas.
A carta de Amodei na quinta-feira reconheceu que armas parcialmente autônomas já estão sendo usadas em algumas partes do mundo, mas mesmo a IA mais avançada não está pronta para receber as chaves.
Do Carta antrópica:
Até completamente as armas autónomas (aquelas que tiram totalmente os humanos do circuito e automatizam a selecção e o ataque aos alvos) podem revelar-se críticas para a nossa defesa nacional. Mas hoje, os sistemas de IA de fronteira simplesmente não são suficientemente fiáveis para alimentar armas totalmente autónomas. Não forneceremos conscientemente um produto que coloque em risco os combatentes e civis dos EUA. Oferecemos trabalhar diretamente com o Departamento de Guerra em P&D para melhorar a confiabilidade desses sistemas, mas eles não aceitaram a oferta. Além disso, sem a devida supervisão, não se pode confiar em armas totalmente autónomas para exercer o julgamento crítico que as nossas tropas profissionais altamente treinadas exibem todos os dias. Eles precisam ser implantados com grades de proteção adequadas, que não existem hoje.
É notável que Amodei nem sequer descarta o uso de IA para automatizar totalmente os sistemas de armas do futuro. Ele está apenas argumentando que a IA ainda não existe.
A IA algum dia estará pronta?
Pesquisadores do King’s College London testaram recentemente GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash em alguns jogos de guerra simulados para ver seu desempenho. Os modelos de IA jogaram 21 partidas e implantaram pelo menos uma arma nuclear tática em 95% dos jogos, de acordo com Novo Cientista.
A IA não tem motivos para temer a utilização de armas nucleares que tenham o potencial de exterminar a humanidade, porque não pode sentir medo. Esses modelos de IA podem falar sobre o medo; eles podem conversar com você e convencer os humanos de que estão de alguma forma conscientes, mas não estão. São produtos tecnológicos que não hesitarão em apertar o grande botão vermelho, a menos que sejam colocadas proteções rigorosas para detê-los.
Os militares têm brincado com estas ideias durante décadas, primeiro tentando construir a Skynet com a Iniciativa de Computação Estratégica da DARPA na década de 1980. Mas a tecnologia ainda não estava lá.
O advento da IA significa que podemos construir adequadamente um sistema de armas autônomo que não requer nenhum humano no circuito. A única questão é se isso é uma coisa inteligente a fazer, especialmente numa época de ascensão do fascismo nos EUA.
Os líderes militares estão agindo de forma estranha
O subsecretário de Defesa Emil Michael repreendeu Amodei em um twittar na quinta-feira, insistindo que o CEO da Antrópico estava mentindo sobre a discussão da empresa com o Pentágono.
“É uma pena que @DarioAmodei seja um mentiroso e tenha complexo de Deus”, escreveu Michael. “Ele não quer nada mais do que tentar controlar pessoalmente as Forças Armadas dos EUA e está bem em colocar a segurança de nossa nação em risco. O @DeptofWar SEMPRE cumprirá a lei, mas não se curvará aos caprichos de qualquer empresa de tecnologia com fins lucrativos.”
É algo surpreendente de se testemunhar se você recuar e lembrar que nada disso era normal na era pré-Trump. A liderança militar nunca criticaria publicamente um CEO americano, chamando-o de mentiroso e dizendo que ele tem complexo de Deus. Simplesmente não aconteceu por simples razões de decoro e profissionalismo.
Mas também demonstra duas coisas: primeiro, que o Pentágono está desesperado para usar Claude, já que o tweet de Michael cheira a desespero. Em segundo lugar, talvez devêssemos estar profundamente preocupados com o que os militares pretendem fazer com toda esta tecnologia avançada à sua disposição. Ou, para ser mais preciso, tecnologia avançada que pretende tirar de uma empresa privada.
Poderemos descobrir por volta das 17h01 horário do leste dos EUA.













