Início Tecnologia Trabalhadores de tecnologia pedem ao DOD e ao Congresso que retirem o...

Trabalhadores de tecnologia pedem ao DOD e ao Congresso que retirem o rótulo Antrópico como um risco na cadeia de suprimentos

19
0

Centenas de trabalhadores de tecnologia assinaram um carta aberta instando o Departamento de Defesa a retirar sua designação de Antrópico como um “risco da cadeia de abastecimento”. A carta também apela ao Congresso para intervir e “examinar se o uso destas autoridades extraordinárias contra uma empresa tecnológica americana é apropriado”.

A carta inclui signatários de grandes empresas de tecnologia e capital de risco, incluindo OpenAI, Slack, IBM, Cursor, Salesforce Ventures e muito mais. Isso segue uma disputa entre o DOD e a Anthropic depois que o laboratório de IA se recusou na semana passada a dar aos militares acesso irrestrito aos seus sistemas de IA.

As duas linhas vermelhas da Antrópico nas suas negociações com o Pentágono eram que não queria que a sua tecnologia fosse utilizada para vigilância em massa de americanos ou para alimentar armas autónomas que tomassem decisões de seleção de alvos e disparos sem um humano no circuito. O DOD disse que não tinha planos de fazer nenhuma dessas coisas, mas não acreditava que deveria ser limitado pelas regras de um fornecedor.

Em resposta à recusa do CEO da Anthropic, Dario Amodei, em ceder às ameaças de Hegseth, o presidente Donald Trump instruiu na sexta-feira as agências federais a pararem de usar a tecnologia da Anthropic após um período de transição de seis meses. Hegseth disse que cumpriria suas ameaças e designaria a Anthropic como um risco na cadeia de suprimentos – uma designação normalmente reservada para adversários estrangeiros que colocariam a empresa de IA na lista negra de trabalhar com qualquer agência ou empresa que faça negócios com o Pentágono.

Em um postar na sextaHegseth escreveu: “Com efeito imediato, nenhum empreiteiro, fornecedor ou parceiro que faça negócios com as forças armadas dos Estados Unidos poderá conduzir qualquer atividade comercial com a Anthropic.”

Mas uma postagem no X não torna automaticamente o Antrópico um risco para a cadeia de suprimentos. O governo precisa concluir uma avaliação de risco e notificar o Congresso antes que os parceiros militares tenham de cortar relações com a Anthropic ou com os seus produtos. Antrópico disse em um postagem no blog o destino é “legalmente insalubre” e “desafiaria qualquer designação de risco da cadeia de abastecimento em tribunal”.

Muitos na indústria veem o tratamento dado pelo governo à Antrópico como uma retaliação dura e clara.

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

“Quando duas partes não conseguem chegar a acordo sobre os termos, o caminho normal é separar-se e trabalhar com um concorrente”, diz a carta aberta. “Esta situação estabelece um precedente perigoso. Punir uma empresa americana por se recusar a aceitar alterações a um contrato envia uma mensagem clara a todas as empresas de tecnologia na América: aceitem quaisquer termos que o governo exija, ou enfrentem retaliação.”

Além da preocupação com o tratamento severo dado pelo governo à Antrópico, muitos na indústria ainda estão preocupados com o potencial exagero do governo e o uso da IA ​​para fins nefastos.

Boaz Barak, pesquisador da OpenAI, escreveu em uma postagem nas redes sociais na segunda-feira que impedir os governos de usar a IA para fazer vigilância em massa também é a sua “linha vermelha pessoal” e “deveria ser de todos nós”.

Momentos depois de Trump atacar publicamente a Anthropic, a OpenAI anunciou que havia chegado a um acordo próprio para que seus modelos fossem implantados nos ambientes classificados do DOD. O CEO da OpenAI, Sam Altman, disse na semana passada que a empresa tem as mesmas linhas vermelhas da Anthropic.

“Se algo de bom puder resultar dos acontecimentos da semana passada, será se nós, na indústria da IA, começarmos a tratar a questão da utilização da IA ​​para abusos governamentais e de vigiar o seu próprio povo como um risco catastrófico por si só”, escreveu Barak. “Fizemos um bom trabalho de avaliações, mitigações e processos para riscos como armas biológicas e segurança cibernética. Vamos usar processos semelhantes aqui.”

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui