Início Tecnologia Anthropic processa oficialmente o Pentágono por rotular a empresa de IA como...

Anthropic processa oficialmente o Pentágono por rotular a empresa de IA como um “risco da cadeia de suprimentos”

15
0

A Anthropic entrou com duas ações judiciais contra o Departamento de Defesa dos EUA na segunda-feira sobre sua designação como um “risco da cadeia de suprimentos para a segurança nacional” que proibiria a empresa de IA de obter contratos com o governo dos EUA e a colocaria na lista negra entre outros empreiteiros de defesa.

O Pentágono classificou a empresa de IA como um risco para a cadeia de abastecimento depois de esta se ter recusado a concordar com os novos termos que permitiriam ao governo dos EUA utilizar o seu modelo de IA Claude para vigilância doméstica em massa e o desenvolvimento de armas totalmente autónomas.

“Essas ações são inéditas e ilícitas”, afirmam as ações da Antrópica ler. “A Constituição não permite que o governo exerça o seu enorme poder para punir uma empresa pelo seu discurso protegido. Nenhum estatuto federal autoriza as ações tomadas aqui.”

As ações, que foram movidas no Tribunal Distrital dos EUA do Distrito Norte da Califórnia e no Tribunal de Apelações do Circuito de DC, de acordo com o New York Timeslista quase três dúzias de réus, incluindo agências governamentais inteiras que usavam Claude, bem como os chefes dessas agências.

“Buscar revisão judicial não altera nosso compromisso de longa data de aproveitar a IA para proteger nossa segurança nacional, mas esta é uma etapa necessária para proteger nossos negócios, nossos clientes e nossos parceiros”, disse um porta-voz da Antrópico em comunicado. “Continuaremos a seguir todos os caminhos para a resolução, incluindo o diálogo com o governo.”

A Anthropic explicou anteriormente que as suas objecções à vigilância doméstica e às proibições do uso de Claude para armas totalmente autónomas se devem em grande parte a preocupações relacionadas com a capacidade técnica. A empresa apresentou um argumento semelhante em seus processos na segunda-feira, explicando que a Anthropic nunca testou Claude para esses usos e que as proteções estão enraizadas na compreensão da empresa sobre seus riscos e limitações, juntamente com uma crença na Constituição dos EUA.

“A Anthropic colaborou com o Departamento de Guerra [sic] sobre modificações em suas restrições de uso para facilitar o trabalho do Departamento com Claude, em reconhecimento às missões únicas do Departamento. Mas a Anthropic sempre manteve seu compromisso com essas duas restrições específicas, inclusive em seu trabalho com o Departamento de Guerra”, escreveu a empresa em suas ações judiciais.

Os processos judiciais da Antrópico eram esperados desde que o presidente Donald Trump e o secretário da Defesa, Pete Hegseth, ameaçaram pela primeira vez invocar a Lei de Produção de Defesa para forçar a Antrópico a cumprir as suas ordens ou ser rotulados como um risco na cadeia de abastecimento, uma designação nunca aplicada a uma empresa dos EUA. O CEO da Anthropic, Dario Amodei, se reuniu com Hegseth em 24 de fevereiro, mas o Pentágono não rotulou formalmente a Anthropic como um risco para a cadeia de suprimentos até 5 de março. Os processos incluem capturas de tela de postagens de Trump no Truth Social e Hegseth no X, bem como links para tweets de membros do gabinete, como o secretário do Tesouro. Scott Bessent.

Nas suas ações judiciais, a Anthropic argumenta que o Departamento de Defesa tem todo o direito de estar atento aos riscos da cadeia de abastecimento, mas tem a responsabilidade de fazê-lo da forma menos restritiva. A Anthropic escreve que o DoD “tinha uma opção direta e irrestrita que teria atendido plenamente a esse interesse: rescindir o contrato e contratar um desenvolvedor diferente”. Em vez disso, o Pentágono adotou uma resposta punitiva para tornar a empresa tóxica.

Existem algumas questões jurídicas espinhosas sobre o que significa ser rotulado como um risco na cadeia de abastecimento, incluindo a questão de saber se isso significa que outras empresas privadas que fazem negócios com o governo federal estão proibidas de usar o software da Antrópico em qualquer capacidade. Seja qual for a letra da lei, empreiteiros de defesa como a Lockheed Martin têm sido cortando laços com Antrópico de qualquer maneira.

O Pentágono elaborou novas diretrizes de IA que exigiriam que as empresas permitissem que os militares se envolvessem em “qualquer uso legal” de seus modelos, de acordo com o Tempos Financeiros. A definição de “legal” é obviamente muito flexível para o regime de Trump, dado o facto de que não há efectivamente ninguém que os responsabilize quando infringem a lei.

“As consequências deste caso são enormes”, dizem os processos. “O governo federal retaliou um importante desenvolvedor de IA de fronteira por aderir ao seu ponto de vista protegido sobre um assunto de grande significado público – a segurança da IA ​​e as limitações de seus próprios modelos de IA – em violação da Constituição e das leis dos Estados Unidos.”

Vários observadores tecnológicos argumentaram que prejudicar a Antrópico prejudica a competitividade dos EUA e dá à China uma vantagem na corrida para construir os sistemas de IA mais avançados. E a Anthropic apresentou argumento semelhante em seus processos na segunda-feira.

“Os réus procuram destruir o valor económico criado por uma das empresas privadas de crescimento mais rápido do mundo, que é líder no desenvolvimento responsável de uma tecnologia emergente de importância vital para a nossa nação”, lê-se nos processos. “As Ações Desafiadas infligem danos imediatos e irreparáveis ​​à Anthropic; a outros cujo discurso será esfriado; àqueles que se beneficiam do valor econômico que a empresa pode continuar a criar; e a um público global que merece um diálogo e debate robustos sobre o que a IA significa para a guerra e a vigilância.”

A Anthropic não respondeu imediatamente a um pedido de comentário na manhã de segunda-feira. O Gizmodo atualizará este artigo quando recebermos uma resposta.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui