Início Tecnologia Sam Altman está comercializando a OpenAI como a empresa americana de IA...

Sam Altman está comercializando a OpenAI como a empresa americana de IA em tempos de guerra, quer ele pretenda ou não

36
0

Em um X post sexta-feira à noiteSam Altman anunciou que sua empresa, OpenAI, tinha acabado de “chegar a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada”. O momento é surpreendente e significativo, fazendo de Altman uma espécie de garoto-propaganda da IA ​​em guerra.

Horas antes, o principal concorrente da OpenAI, a Anthropic, foi informado de que seus produtos haviam recebido uma espécie de lista negra do Pentágono – uma designação de “risco da cadeia de suprimentos para a segurança nacional”. A Antrópico declarou “linhas vermelhas” em torno do uso de sua tecnologia para vigilância em massa e armas totalmente autônomas, e o Pentágono considera isso inaceitável. por Secretário da Guerra Pete Hegsethnenhuma empresa que trabalhe com o Pentágono “poderá realizar qualquer atividade comercial com a Anthropic”.

Como observa Axiosa rubrica legal do Pentágono para a designação ainda está por ser vista, e a designação de risco da cadeia de abastecimento é geralmente reservada para empresas sediadas e potencialmente apoiantes de países considerados hostis aos EUA. Em qualquer caso, a medida corresponde ao padrão Trump 2.0 bem estabelecido de golpear qualquer parte que desagrada a administração com o maior e mais espinhoso clube disponível, e deixar os tribunais decidirem mais tarde se o uso de um determinado clube era válido ou não.

Mas a perda da Antrópica é, pelo menos teoricamente, o ganho de Sam Altman. Para recuar um pouco, a própria existência do Anthropic é um tapa na cara de Altman – com o Anthropic tendo sido criado em primeiro lugar como essencialmente um spin-off do OpenAI, supostamente dedicado a padrões de ética e segurança que Amodei e sua equipe consideraram a OpenAI como não tendo defendido. Portanto, os comerciais do Super Bowl em que a Anthropic destruiu a OpenAI não tão sutilmente não foram, ao que parece, o produto de uma rivalidade amigável. Altman e o fundador e CEO da Anthropic, Dario Amodei, são ruins em esconder sua aparente animosidade um pelo outro. Em uma oportunidade fotográfica para líderes de IA na Índia no início deste mês, os dois visivelmente se recusaram a entrelaçar as mãos.

Como meu colega do Gizmodo, AJ Dellinger, já observou, comentários vazados de Sam Altman aparentemente programados para acompanhar o acordo da OpenAI com o Pentágono mostram Altman tentando buscar algum tipo de postura moral semelhante à de Amodei sobre vigilância e killbots autônomos. Mas qualquer afirmação desse tipo por parte de Altman já foi rejeitada como pura fanfarronice pelo Departamento de Estado e ex-funcionário do DOGE Jeremy Lewin, que postado em X que os princípios declarados de Altman eram, na prática, apenas alguns boatos adicionados ao acordo que realmente deu à OpenAI, Lewin sugere fortemente, poder zero para impedir o Pentágono de fazer o que quiser com os modelos da OpenAI. Em contraste com a Anthropic, a empresa “alcançou a resposta patriótica e correta aqui”, escreve Lewin.

Mas a preocupação de Altman em torno das “linhas vermelhas” da Anthropic já foi contrariada em espírito pelas observações que ele fez no início deste mês sobre a Anthropic. em seu longo post X sobre os anúncios maldosos do Super Bowl da Anthropic (vale a pena ler na íntegra porque é um exemplo do hall da fama de ser Não estou louco).

Enquanto reclamava do anúncio, Altman faz um longo desvio para falar, essencialmente, da mesma coisa que irritou o Pentágono. A empresa de Amodei, diz Altman, “quer controlar o que as pessoas fazem com a IA”. Eles também, diz ele, “impedem empresas de que não gostam de usar seus produtos de codificação (incluindo nós), [and] eles querem escrever eles próprios as regras sobre o que as pessoas podem ou não usar a IA.”

Quaisquer que sejam os termos que você queira usar para a estratégia da Anthropic, eles têm sido extremamente eficazes do ponto de vista comercial. Se 2025 fosse O ano de sucesso da IA ​​do Google2026 tem sido, até agora, o da Antrópico – com o hype em torno de seu principal produto, Claude Code, causando o versão empresarial do terremoto ChatGPT de 2022. Os movimentos diários da Antrópico definiram a agenda de Wall Street ao longo do ano. Este mês, Antrópico ultrapassou OpenAI em dinheiro total arrecadado.

Mas, de forma bastante bizarra, Altman também assumiu uma postura populista no seu discurso anti-Anthropic no Super Bowl, no qual afirmou que “Anthropic serve um produto caro para pessoas ricas”. Na verdade, isso não faz sentido, já que OpenAI e Anthropic cobram por assinaturas e acesso à API. Mas Altman parece estar posicionando o ChatGPT apoiado por anúncios e talvez alguma versão futura apoiada por anúncios de seu produto de codificação, Codex, como as versões democráticas e normies desses produtos, e contrastando isso com o Antrópico sendo para “pessoas ricas”. O enquadramento pretendido pode não ser aquele que o público absorve.

Para ser claro, a realidade e a percepção podem estar em dois caminhos totalmente diferentes aqui. O Pentágono nega que as razões declaradas pela Anthropic sejam o cerne desta questão. “Isso não tem nada a ver com vigilância em massa e uso de armas autônomas. O Pentágono apenas emitiu ordens legais”, disse oficialmente um Pentágono anônimo. supostamente disse à CBS News. Além disso, Antrópico regras autoimpostas que restringem a sua capacidade de expansão foram revisadas em diretrizes flexíveis na terça-feira.

Portanto, não há razão para acreditar na narrativa de que o produto da Anthropic tem um “alma”, ou que a Anthropic é de fato algo diferente de uma empresa com fins lucrativos e de utilidade pública, lidando com as restrições impostas por seu certificado de constituição incomum, que exige que ela ganhar tanto dinheiro quanto possível, ao mesmo tempo que afirma “desenvolver e manter de forma responsável a IA avançada para o benefício a longo prazo da humanidade”. Parece que é uma agulha difícil de enfiar, porque mesmo depois de o Pentágono o ter colocado na lista negra, Amodei disse“Ainda estamos interessados ​​em trabalhar com eles, desde que esteja alinhado com nossas linhas vermelhas.”

Mas ser rotulado como “ESQUERDA RADICAL, ACORDOU EMPRESA” de Donald Trump pode revelar-se uma manobra empresarial inteligente.

Horas depois do anúncio de Altman de um acordo com o Pentágono de Trump, esse mesmo Pentágono lançou o que o presidente chamou de “grandes operações de combate”contra o Irão em conjunto com Israel. pesquisa da Associated Press e da Universidade de Chicago publicado no início desta semana mostrou que a maioria dos americanos já tem pouca ou nenhuma confiança em Trump quando se trata de segurança nacional, e um novo Enquete YouGov mostra que eles desfavorecem mais a guerra com o Irão do que a favorecem. UM Pesquisa Gallup publicada ontem descobriram, surpreendentemente, que agora mais americanos “simpatizam” com os palestinianos do que com os israelitas.

No meio desse cenário político, a luta das “linhas vermelhas” da Anthropic com o Pentágono criou um espaço simbólico rotulado “IA que é inquestionavelmente amigável à máquina de guerra dos EUA” em grandes letras de néon, e moveu a narrativa da sua empresa directamente para fora dele. Sam Altman e OpenAI, ao que parece, estão entrando nisso de boa vontade.

Os empreiteiros militares que actualmente utilizam produtos Antrópicos como o Claude Code terão seis meses para os eliminar gradualmente, de acordo com o Pentágono, e a Antrópico já declarou que, entretanto, irá contestar esta designação nos tribunais. Durante esse tempo, no entanto, a percepção pública da Antrópico será libertada da percepção desta nova guerra com o Irão. O mesmo não pode ser dito do OpenAI.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui