Início Tecnologia Pentágono supostamente usou solução alternativa da Microsoft para testar modelos OpenAI, apesar...

Pentágono supostamente usou solução alternativa da Microsoft para testar modelos OpenAI, apesar da proibição

16
0

As recentes negociações da OpenAI com os militares dos EUA levantaram muitas sobrancelhas. Mas não faz muito tempo que a empresa de IA tinha uma política que proibia o uso de seus modelos por militares ou para a guerra. Apesar dessa proibição, o Pentágono vinha testando uma versão dos modelos OpenAI por meio da Microsoft em uma aparente solução alternativa já em 2023, de acordo com a Wired.

O meio de comunicação de tecnologia informou quinta-feira, citando fontes não identificadas, que o Pentágono estava experimentando o serviço Azure OpenAI da Microsoft naquele ano. Um porta-voz da Microsoft confirmou ao meio de comunicação que o Azure OpenAI foi disponibilizado ao governo dos EUA em 2023 e estava sujeito aos termos de serviço da Microsoft. O porta-voz não disse exatamente quando os modelos foram disponibilizados ao Pentágono, mas observou que o serviço não foi aprovado para cargas de trabalho governamentais “ultrassecretas” até 2025.

OpenAI e Microsoft não responderam imediatamente a um pedido de comentário do Gizmodo.

O relatório destaca a rapidez com que as coisas mudaram na indústria de IA. Há apenas alguns anos, as empresas pelo menos tentavam dar a impressão de que estavam evitando o trabalho militar. Agora, muitos parecem estar tropeçando para conseguir acordos com o Pentágono.

As políticas de uso da OpenAI já incluíram a proibição de “atividades com alto risco de danos físicos”, incluindo áreas como “desenvolvimento de armas”, bem como “militares e de guerra”. Mas em janeiro de 2024, a OpenAI atualizou discretamente essa seção de sua política e removeu a proibição geral de “militares e guerra”. A interceptação relatado na época.

A remoção dessa proibição abriu caminho para a empresa de IA assinar o seu próprio contrato multimilionário com o Pentágono e dar início à atual saga confusa sobre quais modelos de IA os militares dos EUA utilizarão em ambientes confidenciais.

Em junho passado, a empresa anunciou seu Iniciativa OpenAI para governocom o objetivo de levar suas “ferramentas de IA mais avançadas aos funcionários públicos dos Estados Unidos”. O programa incluiu um piloto com o Escritório Chefe de Inteligência Digital e Artificial (CDAO) do Departamento de Defesa, com um teto contratual de US$ 200 milhões. Então, em fevereiro, a OpenAI anunciou que havia disponibilizado uma versão personalizada do ChatGPT por meio da plataforma de IA do Departamento de Defesa, GenAI.mil, para usos não classificados, juntando-se à xAI e ao Gemini do Google na plataforma.

Mais recentemente, a empresa disse na semana passada que tinha chegado a um acordo com o Pentágono para implantar os seus sistemas avançados de IA em ambientes classificados.

O anúncio veio poucas horas depois do colapso das negociações do Departamento de Defesa com o rival da OpenAI, Antrópico. Na época, a Anthropic era a única empresa de IA autorizada a operar em sistemas secretos militares.

O Pentágono queria que a Anthropic permitisse que os militares usassem os seus modelos para “todos os fins legais” enquanto se esforçava para expandir o uso da IA. A Anthropic recuou, insistindo em grades de proteção para evitar que seus modelos fossem usados ​​para vigilância doméstica ou sistemas de armas totalmente autônomos.

O secretário de Defesa, Pete Hegseth, escreveu em um publicar em X que depois que os dois lados não conseguiram chegar a um acordo na sexta-feira, ele instruiu o departamento a designar a Anthropic como um risco para a cadeia de suprimentos. A medida impediria empreiteiros, fornecedores ou empresas que buscam fazer negócios com os militares dos EUA de manter laços comerciais com a Antrópico.

Horas depois, a OpenAI anunciou seu acordo com o Pentágono, que até o CEO Sam Altman reconheceu que fazia o momento parecer “oportunista e desleixado.”

O CEO da Anthropic, Dario Amodei, disse em um declaração Quinta-feira que a maioria dos clientes da empresa não deve ser afetada pela designação e que a Anthropic planeja contestá-la na Justiça. A Microsoft se tornou a primeira grande empresa na quinta-feira a dizer que iria continuar oferecendo produtos de IA da Anthropic aos clientes, apesar da designação.

Amodei também pediu desculpas por um memorando vazado da equipe no qual ele escreveu que o presidente Donald Trump não gosta da Anthropic porque a empresa não fez doações para ele e se recusou a lhe dar “elogios ao estilo ditador”.

“Foi um dia difícil para a empresa e peço desculpas pelo tom da postagem. Ela não reflete minhas opiniões cuidadosas ou ponderadas”, escreveu Amodei. “Também foi escrito há seis dias e é uma avaliação desatualizada da situação atual.”

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui