Início Tecnologia Anthropic processa Departamento de Defesa por designação de risco na cadeia de...

Anthropic processa Departamento de Defesa por designação de risco na cadeia de suprimentos

16
0

A Antrópica entrou com pedido ação federal contra o Departamento de Defesa dos EUA e outras agências federais na segunda-feira, desafiando a designação da empresa de IA como um “risco da cadeia de suprimentos”.

O Pentágono sancionou formalmente a Anthropic na semana passada, coroando um desacordo divulgado publicamente que durou semanas sobre os limites do uso de sua tecnologia generativa de IA para aplicações militares, como armas autônomas.

“Não acreditamos que esta ação seja legalmente válida e não vemos outra escolha a não ser contestá-la no tribunal”, escreveu o CEO da Anthropic, Dario Amodei, em uma postagem no blog na quinta-feira.

O ação judicialque foi apresentado a um tribunal federal na Califórnia, solicitou que um juiz revertesse a designação e impedisse que as agências federais a aplicassem. “A Constituição não permite que o governo exerça seu enorme poder para punir uma empresa por seu discurso protegido”, disse a Anthropic no documento. “A Antrópica recorre ao Judiciário como último recurso para reivindicar seus direitos e deter a campanha ilegal de retaliação do Executivo.”

A startup de IA, que desenvolve um conjunto de modelos de IA chamado Claude, enfrenta a possibilidade de perder centenas de milhões de dólares em receitas anuais do Pentágono e do resto do governo dos EUA. Também poderá perder negócios de empresas de software que incorporarem Claude em serviços que vendem a agências federais. Vários clientes da Antrópico já supostamente disse eles estão buscando alternativas devido à designação de risco do Departamento de Defesa.

Amodei escreveu que a “grande maioria” dos clientes da Anthropic não terá que fazer alterações. A designação do governo dos EUA “se aplica claramente apenas ao uso de Claude pelos clientes como parte direta de contratos com” os militares, disse ele. O uso geral de tecnologias antrópicas por empreiteiros militares não deverá ser afetado.

O Departamento de Defesa, que também é conhecido como Departamento de Guerra, e a Casa Branca não responderam imediatamente aos pedidos de comentários sobre o processo da Antrópico.

Advogados com experiência em contratações governamentais dizem que a Anthropic enfrenta uma difícil batalha judicial. As regras que autoriza o Departamento de Defesa rotular uma empresa de tecnologia como um risco para a cadeia de suprimentos não permite muito recurso. “É 100% prerrogativa do governo definir os parâmetros de um contrato”, diz Brett Johnson, sócio do escritório de advocacia Snell & Wilmer. O Pentágono, diz ele, também tem o direito de expressar que um produto preocupante, se utilizado por qualquer um dos seus fornecedores, “prejudica a capacidade do governo de cumprir a sua missão”.

A melhor chance de sucesso da Anthropic no tribunal poderia ser provar que ela foi escolhida, diz Johnson. Logo depois que o secretário de Defesa, Pete Hegseth, anunciou que estava designando a Anthropic como um risco para a cadeia de suprimentos, a rival OpenAI anunciou que havia fechado um novo contrato com o Pentágono. Isso poderia ser fundamental para o argumento jurídico da Anthropic se a empresa pudesse demonstrar que estava buscando termos semelhantes aos do desenvolvedor do ChatGPT.

OpenAI disse seu negócio incluía meios contratuais e técnicos para garantir que a sua tecnologia não seria utilizada para vigilância doméstica em massa ou para dirigir sistemas de armas autónomos. Acrescentou que se opõe à ação contra a Antrópica e sabe por que sua rival não conseguiu chegar ao mesmo acordo com o governo.

Prioridade Militar

Hegseth priorizou a adoção militar de tecnologias de IA, com cartazes vistos recentemente no Pentágono mostrando-o apontando e dizendo: “Quero que você use IA”. A disputa com a Anthropic começou em janeiro, depois que Hegseth ordenou que vários fornecedores de IA concordassem que o departamento era livre para usar suas tecnologias para qualquer finalidade legal.

A Anthropic, que é a única empresa que atualmente fornece chatbot de IA e ferramentas de análise para os casos de uso mais sensíveis dos militares, recuou. Afirma que as suas tecnologias ainda não são suficientemente capazes para serem utilizadas na vigilância doméstica em massa dos americanos ou em armas totalmente autónomas. Hegseth disse A Antrópica quer poder de veto sobre julgamentos que deveriam ser deixados ao Departamento de Defesa.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui