Início Desporto O que saber sobre o confronto entre o Pentágono e a Antrópica...

O que saber sobre o confronto entre o Pentágono e a Antrópica sobre o uso militar de IA

28
0

WASHINGTON (AP) – Uma disputa de alto risco sobre o uso militar de inteligência artificial surgiu à vista do público esta semana, quando o secretário de Defesa, Pete Hegseth, encerrou bruscamente o trabalho do Pentágono com a Anthropic e outras agências governamentais, usando uma lei destinada a combater ameaças estrangeiras à cadeia de abastecimento para colocar uma letra escarlate em uma empresa dos EUA.

O presidente Donald Trump e Hegseth acusaram a estrela em ascensão da IA, Anthropic, de pôr em perigo a segurança nacional depois que seu CEO, Dario Amodei, se recusou a recuar devido às preocupações de que os produtos da empresa poderiam ser usados ​​para vigilância em massa ou drones armados autônomos.

A empresa sediada em São Francisco prometeu processar o apelo de Hegseth para designar a Anthropic como um risco na cadeia de abastecimento, um movimento sem precedentes para aplicar uma lei destinada a combater ameaças estrangeiras a uma empresa norte-americana.

A Anthropic disse que contestaria o que chamou de uma ação legalmente infundada “nunca antes aplicada publicamente a uma empresa americana”.

A iminente batalha legal pode ter enormes implicações no equilíbrio de poder nas Big Tech durante uma conjuntura crítica, bem como nas regras que regem o uso militar da IA ​​e outras barreiras de proteção que são criadas para evitar que uma tecnologia represente ameaças à vida humana.

O desentendimento já resultou em um golpe para o fabricante do ChatGPT OpenAIque aproveitou a oportunidade para preencher o vazio e disponibilizar a sua tecnologia ao Pentágono depois de a Anthropic se ter oposto a alguns dos termos da administração Trump. É uma reviravolta que provavelmente aprofundará a animosidade entre o CEO da OpenAI, Sam Altman, que foi temporariamente afastado por seu próprio conselho no final de 2023 devido a questões sobre sua confiabilidade, e Amodei, que deixou a OpenAI em 2021 para lançar o Anthropic, em parte por causa de preocupações com a segurança da IA.

A decisão do Departamento de Defesa de rotular Antrópico como um risco para a cadeia de abastecimento de defesa do país encerrará seu contrato de até US$ 200 milhões com a empresa de IA. Também irá, de acordo com o Pentágono, proibir outros empreiteiros de defesa de fazer negócios com a Anthropic.

Trump escreveu no Truth Social que a maioria das agências governamentais devem parar imediatamente de usar a IA da Antrópica, mas deu ao Pentágono um período de seis meses para eliminar gradualmente a tecnologia que já está incorporada em plataformas militares.

A Anthropic argumenta que Hegseth não tem autoridade legal para interromper relações comerciais com outros empreiteiros de defesa. Qualquer empresa que ainda mantenha contrato comercial com a Anthropic pode continuar a utilizar seus produtos para projetos não relacionados à defesa, afirma a empresa escreveu em um comunicado.

A designação de risco da cadeia de abastecimento foi criada para dar aos líderes militares americanos uma forma de limitar a exposição do Pentágono a empresas que representam um risco potencial de segurança. A lista normalmente inclui empresas com ligações com adversários, como a gigante das telecomunicações Huawei, que tem ligações com Chinaou o especialista em segurança cibernética Kaspersky, que tem ligações com a Rússia.

No caso da Anthropic, a designação serve como um alerta para outras empresas de IA e de defesa: se não atenderem às nossas demandas, você será colocado na lista negra.

“Não precisamos disso, não queremos isso e não faremos negócios com eles novamente!” Trump disse nas redes sociais.

O período de carência de seis meses de Trump para o Pentágono abre essencialmente uma janela para que outras empresas obtenham as autorizações de segurança confidenciais necessárias para trabalhar com a agência.

A Antthropic afirma que ainda não foi formalmente notificada sobre a designação de Hegseth.

“Quando recebermos algum tipo de ação formal, analisaremos, entenderemos e contestaremos no tribunal”, prometeu Amodei durante uma entrevista à CBS News que será transmitida na manhã de domingo.

Por enquanto, a Anthropic está tentando convencer as empresas e agências governamentais de que a designação de risco da cadeia de suprimentos da administração Trump afeta apenas o uso de Claude, seu chatbot de IA e agente de codificação de computador, para empreiteiros militares quando eles usam a ferramenta no trabalho do Departamento de Defesa.

“Seu uso para qualquer outro propósito não será afetado”, escreveu a Anthropic em seu comunicado.

Deixar essa distinção clara é crucial para a Anthropic porque a maior parte da receita projetada de US$ 14 bilhões para este ano vem de empresas e agências governamentais que usam Claude para codificação de computadores e outras tarefas. Mais de 500 clientes estão pagando à Anthropic pelo menos US$ 1 milhão anualmente por Claude, de acordo com um anúncio que divulga um investimento que avaliou a empresa em US$ 380 bilhões.

A tecnologia Claude da Anthropic vem ganhando tanta força que surgiu como um substituto viável para uma ampla gama de ferramentas de software empresarial que são atualmente vendidas por grandes empresas de tecnologia, como Salesforce e Workday. Esse potencial fez com que as ações de empresas que vendem software empresarial como serviço despencassem este ano.

Mas agora que a Anthropic foi rotulada como um risco para a cadeia de abastecimento, há alguma incerteza sobre se os seus clientes ainda se sentirão confortáveis ​​em utilizar Claude para trabalhos não militares e correm o risco de atrair a ira de Trump. Qualquer relutância generalizada em utilizar Claude, apesar de todas as incursões que fez durante o ano passado, poderá retardar o avanço da IA ​​nos EUA, numa altura em que o país corre para se manter à frente da China numa tecnologia que deverá remodelar a economia e a sociedade.

Ao mesmo tempo, a Anthropic e a Amodei podem agora ter um púlpito agressivo para promover a sua agenda para a construção de barreiras de protecção mais robustas em torno do funcionamento da IA.

“Nenhuma intimidação ou punição por parte do Departamento de Guerra mudará nossa posição sobre vigilância doméstica em massa ou armas totalmente autônomas”, disse a empresa. “Desafiaremos qualquer designação de risco da cadeia de abastecimento em tribunal.”

Em sua entrevista à CBS, Amodei retratou a disputa da Antrópico com o governo Trump como uma posição pela democracia.

“Discordar do governo é a coisa mais americana do mundo”, disse Amodei. “E somos patriotas. Em tudo o que fizemos aqui, defendemos os valores deste país.”

Horas depois de seu concorrente ter sido punido, Altman, da OpenAI, anunciou na noite de sexta-feira que sua empresa fechou um acordo com o Pentágono para fornecer sua IA a redes militares confidenciais. Mas Altman disse que as mesmas restrições de IA que foram o ponto crítico na disputa da Anthropic com o Pentágono estão agora consagradas na nova parceria da OpenAI.

Num memorando obtido pela Associated Press, Altman disse aos funcionários da OpenAI: “Há muito que acreditamos que a IA não deveria ser usada para vigilância em massa ou armas letais autónomas, e que os humanos deveriam permanecer informados sobre decisões automatizadas de alto risco. Estas são as nossas principais linhas vermelhas”.

Não está claro por que o Pentágono concordou com as linhas vermelhas da OpenAI, mas não com as da Antrópica. Mas no seu memorando, Altman escreveu que a empresa acredita que pode “desescalar as coisas” trabalhando com o Pentágono e ao mesmo tempo aderindo a proteções de segurança sólidas.

O acordo da OpenAI com a administração Trump ocorreu no mesmo dia em que anunciou a arrecadação de outros US$ 110 bilhões como parte de uma infusão que avalia a empresa sediada em São Francisco em US$ 730 bilhões.

Mas a OpenAI também poderá enfrentar uma reação negativa potencial se o seu trabalho com o Pentágono for amplamente visto pelos consumidores norte-americanos que usam o ChatGPT como um exemplo de colocar a busca do lucro à frente da segurança da IA.

A fenda antrópica também pode abrir novas oportunidades para Musk, que co-fundou a OpenAI com Altman em 2015, antes de os dois terem um desentendimento amargo por questões de segurança e questões financeiras. Musk acusou Altman de fraude e outros comportamentos enganosos em um caso programado para ir a julgamento no final de abril.

Musk agora supervisiona o chatbot de IA, Grok, ao qual o Pentágono também planeja dar acesso a redes militares classificadas, apesar de sua segurança e confiabilidade, além de investigações governamentais sobre seu criação de imagens deepfake sexualizadas. Musk já tem torcido pela administração Trump em sua briga com Amodei, dizendo em sua plataforma de mídia social X que “Anthropic odeia a civilização ocidental”.

A Google, que desenvolveu um conjunto de ferramentas de IA amplamente utilizadas na sua tecnologia Gemini, também poderá estar na disputa por mais negócios por parte das forças armadas dos EUA, embora um flanco aberto da sua força de trabalho tenha implorado aos executivos que evitem fazer acordos que violariam o antigo lema da empresa, “Não seja mau”. Os executivos do Google até agora não discutiram publicamente o desentendimento da Antrópico com a administração Trump.

____

Liedtke relatou de San Ramon, Califórnia.

_

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui