Início Tecnologia Departamento de Justiça afirma que não se pode confiar na Anthropic para...

Departamento de Justiça afirma que não se pode confiar na Anthropic para sistemas de combate

37
0

A administração Trump argumentou em um processo judicial na terça-feira que não violou os direitos da Primeira Emenda da Antrópico ao designar o desenvolvedor de IA como um risco para a cadeia de suprimentos e previu que o processo da empresa contra o governo fracassará.

“A Primeira Emenda não é uma licença para impor unilateralmente termos contratuais ao governo, e a Anthropic não cita nada para apoiar uma conclusão tão radical”, escreveram os advogados do Departamento de Justiça dos EUA.

A resposta foi apresentada num tribunal federal em São Francisco, um dos dois locais onde a Anthropic está a contestar a decisão do Pentágono de sancionar a empresa com um rótulo que pode impedir empresas de contratos de defesa devido a preocupações sobre potenciais vulnerabilidades de segurança. A Anthropic argumenta que a administração Trump ultrapassou sua autoridade ao aplicar o rótulo e impedir que as tecnologias da empresa fossem usadas dentro do departamento. Se a designação se mantiver, a Anthropic poderá perder até bilhões de dólares em receitas esperadas este ano.

A Anthropic quer retomar os negócios normalmente até que o litígio seja resolvido. Rita Lin, a juíza que supervisiona o caso de São Francisco, marcou uma audiência para a próxima terça-feira para decidir se honrará o pedido da Antrópico.

Os advogados do Departamento de Justiça, escrevendo para o Departamento de Defesa e outras agências no documento de terça-feira, descreveram as preocupações da Anthropic sobre a potencial perda de negócios como “legalmente insuficientes para constituir um dano irreparável” e pediram a Lin que negasse à empresa um adiamento.

Os advogados também escreveram que a administração Trump foi motivada a agir por causa de “preocupações sobre a potencial conduta futura da Anthropic caso mantivesse o acesso” aos sistemas de tecnologia do governo. “Ninguém pretendeu restringir a atividade expressiva da Anthropic”, escreveram eles.

O governo argumenta que o esforço da Antrópico para limitar a forma como o Pentágono pode usar a sua tecnologia de IA levou o secretário da Defesa, Pete Hegseth, a determinar “razoavelmente” que “o pessoal da Antrópico pode sabotar, introduzir maliciosamente funções indesejadas ou de outra forma subverter o design, a integridade ou a operação de um sistema de segurança nacional”.

O Departamento de Defesa e a Anthropic têm brigado por possíveis restrições aos modelos Claude AI da empresa. A Antrópica acredita que os seus modelos não devem ser usados ​​para facilitar a vigilância ampla dos americanos e não são atualmente suficientemente fiáveis ​​para alimentar armas totalmente autónomas.

Vários especialistas jurídicos disseram anteriormente à WIRED que a Anthropic tem um forte argumento de que a medida da cadeia de abastecimento equivale a uma retaliação ilegal. Mas os tribunais muitas vezes favorecem os argumentos de segurança nacional do governo, e funcionários do Pentágono descreveram a Anthropic como um empreiteiro que se tornou desonesto e cujas tecnologias não são confiáveis.

“Em particular, o DoW ficou preocupado com o fato de que permitir o acesso contínuo da Antrópica à infraestrutura técnica e operacional de combate do DoW introduziria um risco inaceitável nas cadeias de abastecimento do DoW”, afirma o documento de terça-feira. “Os sistemas de IA são extremamente vulneráveis ​​à manipulação, e a Anthropic poderia tentar desativar a sua tecnologia ou alterar preventivamente o comportamento do seu modelo antes ou durante as operações de combate em curso, se a Anthropic – a seu critério – sentir que as suas ‘linhas vermelhas’ corporativas estão a ser ultrapassadas.”

O Departamento de Defesa e outras agências federais estão trabalhando para substituir as ferramentas de IA da Anthropic por produtos de empresas de tecnologia concorrentes nos próximos meses. Um dos principais usos de Claude pelos militares é por meio do software de análise de dados Palantir, disseram pessoas familiarizadas com o assunto à WIRED.

No processo de terça-feira, os advogados argumentaram que o Pentágono “não pode simplesmente apertar um botão num momento em que o Antrópico é atualmente o único modelo de IA autorizado para uso” nos “sistemas classificados e operações de combate de alta intensidade do departamento estão em andamento”. O departamento está trabalhando para implantar sistemas de IA do Google, OpenAI e xAI como alternativas.

Várias empresas e grupos, incluindo pesquisadores de IA, a Microsoft, um sindicato federal de funcionários e ex-líderes militares entraram com ações judiciais em apoio à Anthropic. Nenhum foi apresentado em apoio ao governo.

A Antrópica tem até sexta-feira para apresentar uma contra-resposta aos argumentos do governo.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui