Como o próprio CEO Sam Altman admitiu, o acordo da OpenAI com o Departamento de Defesa foi “definitivamente apressado” e “a ótica não parece boa”.
Depois que as negociações entre a Anthropic e o Pentágono fracassaram na sexta-feira, o presidente Donald Trump instruiu as agências federais a pararem de usar a tecnologia da Anthropic após um período de transição de seis mesese o secretário de Defesa, Pete Hegseth, disse que estava designando a empresa de IA como um risco para a cadeia de suprimentos.
Então, a OpenAI anunciou rapidamente que havia chegado a um acordo próprio para modelos a serem implantados em ambientes classificados. Com a Anthropic dizendo que estava traçando limites em torno do uso de sua tecnologia em armas totalmente autônomas ou vigilância doméstica em massa, e Altman dizendo que a OpenAI tinha os mesmos limites, havia algumas questões óbvias: a OpenAI estava sendo honesta sobre suas salvaguardas? Por que foi possível chegar a um acordo e a Anthropic não?
Assim, enquanto os executivos da OpenAI defendiam o acordo nas redes sociais, a empresa também publicou uma postagem no blog descrevendo sua abordagem.
Na verdade, o post apontava para três áreas onde dizia que os modelos da OpenAI não podem ser usados – vigilância doméstica em massa, sistemas de armas autónomos e “decisões automatizadas de alto risco (por exemplo, sistemas como ‘crédito social’)”.
A empresa disse que, em contraste com outras empresas de IA que “reduziram ou removeram as suas barreiras de segurança e confiaram principalmente nas políticas de utilização como as suas principais salvaguardas nas implementações de segurança nacional”, o acordo da OpenAI protege as suas linhas vermelhas “através de uma abordagem mais expansiva e multicamadas”.
“Mantemos total discrição sobre nossa pilha de segurança, implantamos via nuvem, o pessoal autorizado da OpenAI está informado e temos fortes proteções contratuais”, disse o blog. “Tudo isso se soma às fortes proteções existentes na legislação dos EUA.”
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
A empresa acrescentou: “Não sabemos por que a Anthropic não conseguiu chegar a este acordo e esperamos que eles e mais laboratórios considerem isso”.
Depois que a postagem foi publicada, Mike Masnick da Techdirt afirmou que o acordo “permite absolutamente a vigilância doméstica”, porque afirma que a recolha de dados privados cumprirá Ordem Executiva 12333 (juntamente com uma série de outras leis). Masnick descreveu essa ordem como “a forma como a NSA esconde a sua vigilância doméstica, capturando comunicações através de acesso a linhas *fora dos EUA*, mesmo que contenham informações de/sobre pessoas dos EUA”.
Em uma postagem no LinkedInKatrina Mulligan, chefe de parcerias de segurança nacional da OpenAI, argumentou que grande parte da discussão em torno da linguagem do contrato pressupõe que “a única coisa que existe entre os americanos e o uso de IA para vigilância doméstica em massa e armas autônomas é uma única disposição de política de uso em um único contrato com o Departamento de Guerra”.
“Não é assim que funciona”, disse Mulligan, acrescentando: “A arquitetura de implantação é mais importante do que a linguagem do contrato […] Ao limitar nossa implantação à API em nuvem, podemos garantir que nossos modelos não possam ser integrados diretamente em sistemas de armas, sensores ou outro hardware operacional.”
Altman também respondeu a perguntas sobre o acordo em X, onde ele admitiu que foi apressado e resultou em uma reação significativa contra o OpenAI (na medida em que Claude da Anthropic ultrapassou o ChatGPT da OpenAI na App Store da Apple no sábado). Então, por que fazer isso?
“Queríamos realmente acalmar as coisas e achamos que o acordo oferecido era bom”, disse Altman. “Se estivermos certos e isso levar a uma desescalada entre o DoW e a indústria, pareceremos gênios e uma empresa que se esforçou muito para fazer coisas para ajudar a indústria. Caso contrário, continuaremos a ser caracterizados como […] apressado e descuidado.”












