No espaço de algumas horas na sexta-feira, o Pentágono abandonou seu acordo com a Anthropic depois que esta se recusou a ceder nas proteções de segurança a respeito de a utilização da sua IA na vigilância ou em armas totalmente autónomas sem supervisão humana, designando então a empresa como um risco na cadeia de abastecimento, antes de assinar um acordo com a OpenAI. Tudo isto também aconteceu poucas horas antes de os ataques militares dos EUA começarem a chover sobre Teerão.
O acordo entre o Departamento de Defesa e a OpenAI gerou intensa reação do público em geral, que em grande parte o viu como a OpenAI cedendo aos pedidos da administração Trump. Enquanto isso, Claude alcançou o primeiro lugar na App Store e os usuários estão pedindo um boicote ao OpenAI.
A OpenAI disse que sua tecnologia não será usada para vigilância doméstica em massa ou para alimentar sistemas de armas autônomos diretos. Os detalhes reais do contrato e como essas limitações serão implementadas não foram divulgados, mas os executivos da OpenAI compartilharam algumas informações em um fórum aberto no estilo pergunte-me qualquer coisa no X no fim de semana.
A chefe de parcerias de segurança nacional da OpenAI, Katrina Mulligan, disse que o contrato permite ao Pentágono usar a tecnologia da OpenAI “para todos os fins legais, consistente com a lei aplicável, requisitos operacionais e protocolos de segurança e supervisão bem estabelecidos”. Em uma postagem separada, ela esclareceu que a OpenAI pretendia que “lei aplicável” significasse “a lei aplicável no momento da assinatura do contrato”.
Mulligan disse também que o contrato se aplica apenas à defesa e não permitirá a sua utilização pelas autoridades nacionais.
“Se este contrato fosse com as autoridades nacionais ou com a NSA, teríamos exigido disposições contratuais diferentes, mas nada na lei dos EUA permite que o Departamento de Guerra conduza vigilância doméstica”, disse Mulligan.
Mas até o CEO Sam Altman admitiu que o negócio foi “apressado” e que “a óptica não parece boa”.
“Aceitei que os militares dos EUA vão fazer alguma vigilância sobre os estrangeiros, e sei que governos estrangeiros tentam fazer isso conosco, mas ainda não gosto disso”, disse Altman em um comunicado. publicar em X. “Por outro lado, também respeito o processo democrático. Não creio que cabe a mim decidir.”
Há uma confiança significativa no governo proveniente da liderança da OpenAI.
“A lei dos EUA já restringe os piores resultados”, escreveu Mulligan, enquanto Altman disse que o governo dos EUA é “uma instituição que faz o seu melhor para seguir a lei e a política”.
Mas se escândalos de vigilância em massa Se a história muito recente nos disser alguma coisa, o governo americano pode encontrar margem de manobra nas restrições existentes, se necessário. A possibilidade de inconstitucionalidade dos ataques militares também não impediu a administração Trump, no passado, de avançar a todo vapor com os referidos ataques, como no caso dos altamente contestados ataques a barcos no Caribe no final do ano passado, que parecem atender à definição de crime de guerra, de acordo com a ACLU. Além disso, o Congresso dos EUA não tem tido pressa em redigir leis que levem em consideração a existência da IA.
Os executivos afirmam ainda que o acordo oferecido à OpenAI foi diferente daquele oferecido à Anthropic.
“Acho que a Anthropic pode ter desejado mais controle operacional do que nós”, Altman disse. “Temos experiência com a tecnologia e entendemos suas limitações, mas acho que você deveria ter medo de que uma empresa privada decida o que é ou não ético nas áreas mais importantes.”
Em vez disso, a empresa terá engenheiros destacados ajudando a monitorar o uso de sua tecnologia pelo Pentágono, disseram executivos da OpenAI no X. Vender o modelo com controles técnicos, disse Mulligan, é “muitas vezes mais confiável do que cláusulas contratuais”, como as disposições que a Antrópico buscou do Pentágono, mas uma fonte não identificada disse A beira na segunda-feira que o impacto destas salvaguardas é limitado.
A ex-pesquisadora de geopolítica da OpenAI, Sarah Shoker, também compartilhou um Subpilha postei no sábado que a indústria de defesa não tem consenso sobre o que realmente significa na prática a supervisão humana adequada em armas autônomas, o que poderia ser o ponto em que a Antrópica discordou do Pentágono e a OpenAI não.
Enquanto os executivos da OpenAI recorreram ao X para defender a decisão da empresa, dezenas de funcionários adotaram uma abordagem mais crítica.
Antes do anúncio de que a OpenAI havia garantido o acordo com o Pentágono, 96 funcionários assinaram um carta aberta pedindo à liderança da empresa que “continue a recusar as atuais exigências do Departamento de Guerra de permissão para usar os nossos modelos de vigilância doméstica em massa e de matar pessoas de forma autónoma, sem supervisão humana”.
Muitos funcionários da OpenAI, incluindo vice-presidentes e chefes de departamento, também assinaram um carta aberta endereçado ao Pentágono para retirar a designação de risco da cadeia de suprimentos para Antrópico.
E pelo menos um cientista pesquisador recorreu ao X para expressar desacordo com o contrato.
“Pessoalmente, não acho que este acordo valeu a pena”, disse o cientista pesquisador da OpenAI, Aidan McLaughlin, em um comunicado. publicar em X, acrescentando que há uma quantidade “esmagadora” de discussão interna sobre a decisão.
Se você trabalha atualmente ou já trabalhou na OpenAI, adoraríamos ouvir sua opinião. Entre em contato conosco em [email protected]













