Início Noticias O processo da Anthropic deveria destruir totalmente o Pentágono no tribunal

O processo da Anthropic deveria destruir totalmente o Pentágono no tribunal

27
0


Política


/
11 de março de 2026

Mas não se engane: a empresa não é uma dos mocinhos.

O CEO da Anthropic, Dario Amodei, o diretor de produtos Mike Krieger e o chefe de comunicações Sasha de Marigny dão uma entrevista coletiva em 22 de maio de 2025.

(Foto de Julie Jammot/AFP via Getty Images)

Antrópico, criador do modelo de IA “Claude”, processou o Departamento de Defesa em dois processos separados, incluindo um alegando que o governo está violando os seus direitos da Primeira Emenda. O conflito surgiu na semana passada, quando a administração Trump rotulou a empresa de “risco da cadeia de abastecimento” e proibiu agências governamentais, ou qualquer entidade que trabalhasse com os militares dos EUA, de utilizar o sistema Claude. A administração Trump agora chama Claude de risco para a segurança nacional. (O segundo processo contesta esta designação, que, até agora, nunca foi utilizada contra uma empresa norte-americana.)

A lista negra ocorreu após meses de combates entre a Antrópico e o governo. A Anthropic quer manter “salvaguardas” em Claude que impeçam o sistema de ser usado para alimentar armas autónomas – basicamente, máquinas mortíferas que podem conduzir operações militares sem envolvimento humano – e para se envolver na vigilância generalizada dos americanos. A administração Trump quer que a empresa afrouxe essas salvaguardas. Evidentemente, o secretário de Crimes de Guerra, Pete Hegseth, quer os robôs assassinos agora e não gosta que o Anthropic fique em seu caminho.

O governo ameaçou repetidamente a Antrópica com consequências se ela não removesse suas restrições de segurança. Parece que a designação de risco da cadeia de abastecimento e a lista negra associada são essas consequências.

Tudo isto deveria tornar o processo Antrópico um golpe certeiro, pelo menos a parte da Primeira Emenda, assumindo que ainda existem juízes e magistrados dispostos a responsabilizar a administração Trump perante a Constituição, mesmo no domínio da segurança nacional. A reclamação da Antrópica apresenta um caso bastante claro a favor de uma violação da Primeira Emenda (tenho menos conhecimento sobre a outra alegação, embora a minha suposição, com base na história anterior, seja que a administração Trump está de facto a violar todas as leis que é acusada de violar).

Os fatos simples são estes: o governo queria que a Antrópica fizesse sua IA fazer alguma coisa. A Antrópica não queria que sua IA fizesse isso, por causa de suas crenças, e essas crenças são protegidas pela Primeira Emenda. O governo puniu a Antrópica com uma designação adversa à segurança nacional, porque a empresa não fez o que o governo queria. Isso é uma violação da liberdade de expressão.

Uma coisa teria sido se o governo simplesmente decidisse usar outro fornecedor de IA ou, Deus me livre, parasse de usar IA para fins militares. Isso não violaria a Primeira Emenda; seria simplesmente o governo optando por usar um serviço diferente. Mas o governo não se limitou a levar os seus negócios para outro lado – decidiu punir Antrópico, declarando-o uma ameaça à segurança nacional.

Problema atual

Capa da edição de abril de 2026

Como tantas vezes acontece, a incapacidade crónica de Donald Trump de manter a boca fechada, mesmo quando viola a Constituição, deveria ajudar a defender a posição da Antrópica. Nas redes sociais, ele chamou a Anthropic de “fora de controle” e uma “ESQUERDA RADICAL, EMPRESA ACORDADA” de “empregos malucos de esquerda”. Ele não está dizendo que a empresa não é mais capaz de fornecer um serviço útil ao governo, ele está dizendo que o governo está colocando a empresa na lista negra por suas opiniões políticas.

Hegseth redobrou esses comentários. De acordo com a denúncia, quando Hegseth emitiu a ordem da lista negra, ele “denunciou o que caracterizou como a ‘ideologia do Vale do Silício’ da Antrópica, ‘altruísmo defeituoso’, ‘sinalização de virtude corporativa’ e ‘classe magistral de arrogância’. E ele criticou a Antrópica por não ser ‘mais patriótica’”.

Tudo isso viola a Primeira Emenda. O DoD pode utilizar qualquer prestador de serviços que desejar, mas não pode atribuir a uma empresa uma designação legal adversa por falta de “patriotismo”. Punir as pessoas por agitarem a bandeira de forma insuficiente é uma daquelas coisas que a Primeira Emenda foi concebida para impedir.

Há jurisprudência recente, nada menos do que a Suprema Corte controlada por Trump, que também deveria ajudar o caso da Antrópico. Em Associação Nacional de Rifles v.a NRA argumentou com sucesso que a superintendente do Departamento de Serviços Financeiros do Estado de Nova Iorque (Maria Vullo) pressionou os bancos e as companhias de seguros a deixarem de fazer negócios com a NRA e outros grupos pró-armas na sequência do tiroteio em Sandy Hook. O Supremo Tribunal decidiu que isto violava os direitos da Primeira Emenda da NRA, essencialmente dizendo que o Estado de Nova Iorque estava a usar o seu poder para tirar negócios da NRA porque Nova Iorque não gostava do que a NRA representa.

A propósito, essa decisão foi 9-0. A opinião unânime foi escrito pela juíza Sonia Sotomayor, que não está exatamente no lado ammossexual do espectro. Mas: tentar esmagar uma empresa porque o governo não gosta do que a empresa faz é uma violação clássica da Primeira Emenda. Presumo que os juízes que tratam Trump como um Deus em questões de segurança nacional (o juiz-chefe John Roberts e os juízes Clarence Thomas, Sam Alito e o suposto estuprador Brett Kavanaugh) encontrarão alguma maneira de voltar atrás em suas opiniões. Vullo e decidir que a Primeira Emenda não importa quando Trump quer que sua empresa automatize a matança de pessoas, mas isso ainda só dá ao governo Trump quatro votos.

Antrópico deve vencer, mas o problema é o seguinte: não é exatamente um dos mocinhos. Sim, a safra atual de criminosos de guerra que comandam o governo quer coisas horríveis, mas a Antrópica deseja principalmente dar isso a eles. Afinal de contas, não é como se não tivesse procurado os 200 mil milhões de dólares em contratos que o governo está agora a tentar tirar. E os líderes da empresa têm feito tudo para falar sobre o quão “patrióticos” são e o quanto acreditam na utilização da IA ​​para a segurança nacional. Eles estão basicamente dizendo que deixarão Claude fazer qualquer coisa além de puxar o gatilho:

Portanto, a Anthropic trabalhou proativamente para implantar nossos modelos no Departamento de Guerra e na comunidade de inteligência. Nós éramos a primeira empresa de IA de fronteira para implantar nossos modelos nas redes confidenciais do governo dos EUA, o primeiro a implantá-los no Laboratórios Nacionaise o primeiro a fornecer modelos personalizados para clientes de segurança nacional. Cláudio é amplamente implantado em todo o Departamento de Guerra e outras agências de segurança nacional para aplicações de missão crítica, como análise de inteligência, modelagem e simulação, planejamento operacional, operações cibernéticas e muito mais.

A empresa quer ajudar a administração Trump a fazer quase todas as coisas ruins que a administração Trump deseja fazer. E fica feliz em participar de maneiras grandes e muito pequenas (veja: suas repetidas e insinuantes referências ao Departamento de Guerra).

Aqui está minha leitura: sinto que a Anthropic está apenas tentando manter uma negação plausível para quando, inevitavelmente, seu sistema for usado da maneira mais obviamente maneira flagrante. Pense desta forma: quando Claude matar a pessoa “errada” (ou, mais provavelmente, uma vila cheia de gente), o processo não irá apenas chegar ao governo dos EUA, mas também será um litígio de destruição de empresa movido contra a Antrópico. E aposto todo o financiamento de capital de risco de Claude que o governo tentará culpar a Anthropic por quaisquer acidentes violentos e não os caras bêbados que dirigem o DoD. Toda a sua retórica e protocolos de segurança sobre o que Claude não deveria ser usado me parece um escudo de responsabilidade de alerta precoce, mais do que qualquer outra coisa.

Antrópico me parece o cara que dividiu o átomo e depois disse: “mas só vamos usar isso para a ciência, não para fazer… bombas que poderiam destruir toda a civilização humana, certo? Certo, Robbie Oppenheimer?” Tipo, claro, você pode querer que sua tecnologia “só seja usada para o bem”, mas… não é assim que a tecnologia funciona. E definitivamente não é assim que funciona a máquina de guerra dos EUA.

A melhor coisa a acontecer seria o DoD ser impedido de usar IA letal autônoma e de vigiar o público americano por um ato do Congressonão através da defesa dos direitos da Primeira Emenda da Antrópico. Esta situação exige legislação e não uma decisão 5-4 do Supremo Tribunal sobre se o governo pode colocar na lista negra empresas que não cumpram as suas ordens.

A administração Trump não deveria poder listar uma empresa como uma ameaça à segurança nacional porque não fabricará exterminadores. Mas embora a Anthropic (por enquanto) não queira que sua tecnologia seja usada dessa forma, a próxima empresa não terá problemas com isso. OpenAI, criadora do ChatGPT, está já tentando preencher o vazio deixado por Claude.

Eventualmente, seremos informados de que simplesmente precisa fabricar robôs assassinos autônomos porque os chineses, os russos ou os klingons já estão fazendo isso e não podemos ficar para trás.

Como de costume, Exterminador do Futuro 2 previu tudo isso.

John Connor: “Não vamos conseguir, não é? Pessoas, quero dizer.”

Terminator: “É da sua natureza destruir-se.”

Mesmo antes de 28 de Fevereiro, as razões para a implosão do índice de aprovação de Donald Trump eram abundantemente claras: corrupção desenfreada e enriquecimento pessoal no valor de milhares de milhões de dólares durante uma crise de acessibilidade, uma política externa guiada apenas pelo seu próprio sentido de moralidade abandonado, e a implantação de uma campanha assassina de ocupação, detenção e deportação nas ruas americanas.

Agora, uma guerra de agressão não declarada, não autorizada, impopular e inconstitucional contra o Irão espalhou-se como um incêndio pela região e pela Europa. Uma nova “guerra eterna” – com uma probabilidade cada vez maior de tropas americanas no terreno – pode muito bem estar sobre nós.

Como vimos repetidamente, esta administração usa mentiras, desorientação e tentativas de inundar a zona para justificar os seus abusos de poder a nível interno e externo. Tal como Trump, Marco Rubio e Pete Hegseth oferecem justificações erráticas e contraditórias para os ataques ao Irão, a administração também está a espalhar a mentira de que as próximas eleições intercalares estão sob a ameaça de não-cidadãos nos cadernos eleitorais. Quando estas mentiras não são controladas, tornam-se a base para novas invasões autoritárias e guerras.

Nestes tempos sombrios, o jornalismo independente é o único capaz de descobrir as falsidades que ameaçam a nossa república – e os civis em todo o mundo – e lançar uma luz brilhante sobre a verdade.

A NaçãoA experiente equipe de redatores, editores e verificadores de fatos da BS entende a escala do que enfrentamos e a urgência com que devemos agir. É por isso que publicamos reportagens e análises críticas sobre a guerra no Irão, a violência do ICE no país, novas formas de supressão eleitoral emergentes nos tribunais e muito mais.

Mas este jornalismo só é possível com o seu apoio.

Neste mês de março, A Nação precisa arrecadar US$ 50 mil para garantir que tenhamos os recursos para relatórios e análises que esclareçam as coisas e capacitem as pessoas de consciência a se organizarem. Você vai doar hoje?

Elie Mystal



Elie Mystal é A Naçãocorrespondente de justiça e colunista. Ele também é Alfred Knobler Fellow no Type Media Center. É autor de dois livros: o New York Times Best-seller Permita-me responder: um guia para a constituição de um negro e Lei ruim: dez leis populares que estão arruinando a Américaambos publicados pela The New Press. Você pode assinar o dele Nação boletim informativo “Elie v. EUA” aqui.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui