Início Tecnologia Microsoft apoia antrópico nas consequências do Pentágono, apesar da rivalidade acalorada

Microsoft apoia antrópico nas consequências do Pentágono, apesar da rivalidade acalorada

38
0

A Microsoft está do lado da Anthropic na sua luta para derrubar a designação de “risco da cadeia de abastecimento” do Pentágono.

No final do mês passado, o Pentágono cancelou todos os contratos com a Anthropic e classificou a empresa de IA como um “risco da cadeia de abastecimento”, depois de esta última se ter recusado a abandonar as salvaguardas contra a vigilância em massa e armas completamente autónomas. Em resposta, a Anthropic abriu duas ações judiciais contra o Departamento de Defesa na semana passada.

Em um amicus brief apresentado na terça-feira em apoio a essas ações, a Microsoft pediu ao tribunal federal que emitisse um bloqueio temporário à designação do DoD até que o caso fosse decidido.

“Uma ordem de restrição temporária permitirá que as partes busquem uma resolução negociada que servirá melhor a todos os envolvidos e evitará impactos comerciais negativos de amplo alcance”, escreveu a Microsoft no documento.

A designação exige que todas as empresas que trabalham com o Pentágono abandonem os modelos da Antrópico e passem a trabalhar para o Departamento, com efeito imediato, embora as agências tenham um período de eliminação progressiva de seis meses. A Microsoft, que é ao mesmo tempo uma contratada governamental de longa data e uma investidora na Anthropic, alertou que a dissociação será difícil.

“Uma ordem de restrição temporária permitirá uma transição mais ordenada e evitará interromper o uso contínuo de IA avançada pelos militares americanos”, escreveu a Microsoft no documento. “Caso contrário, a Microsoft e outras empresas de tecnologia devem agir imediatamente para alterar as configurações existentes de produtos e contratos utilizados pelo DoW. Isto poderia potencialmente prejudicar os combatentes dos EUA num momento crítico.” (DoW é uma referência ao Departamento de Guerra, a renomeação preferida da administração Trump para Departamento de Defesa.)

A IA tem sido um ajudante crucial no aumento da velocidade e da escala do ataque dos EUA ao Irão. A escala dos ataques foi massiva, “o dobro” da fase inicial de “choque e pavor” da invasão do Iraque em 2003, de acordo com especialistas militares. Apenas nas primeiras 24 horas, os EUA atingiram cerca de mil alvos, segundo a Bloomberg. Um desses alvos teria sido uma escola primária no sul do Irão.

A Anthropic está se inclinando para sua nova postura pró-humanidade, com a empresa anunciando na quarta-feira que estava lançando um grupo de reflexão interno para pesquisar as implicações e perigos em grande escala que a IA pode representar em coisas como economia e segurança. De acordo com A beiracomo parte das mudanças, o cofundador Jack Clark liderará o think tank sob seu novo título, “chefe de benefício público”.

Mas a Anthropic emprestou voluntariamente os serviços de Claude aos militares dos EUA em determinado momento. A tecnologia foi supostamente usado na captura do presidente venezuelano Nicolás Maduro, e supostamente ainda está sendo usado pelos militares no Irã. O Comando Central do Pentágono ainda usa Claude de alguma forma, de acordo com o Wall Street Journal.

O DoD não tem nada com que se preocupar com a separação da Anthropic, porque a OpenAI foi rápida em preencher o espaço deixado pela Anthropic, para desespero dos usuários do ChatGPT e de alguns funcionários da empresa.

A transição a nível governamental para OpenAI está em curso e o Departamento de Estado supostamente já mudou seu modelo de chatbot interno do Claude Sonnet 4.5 da Anthropic para o GPT-4.1 da OpenAI.

Embora a OpenAI já tenha proibido o uso da IA ​​para fins militares, COM FIO relatou na semana passada que o Pentágono estava testando os modelos da OpenAI por meio de uma solução alternativa do Microsoft Azure já em 2023.

O amicus brief da Microsoft vem logo após outro briefing em apoio à Anthropic, desta vez assinado por 37 funcionários do Google e da OpenAI.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui