O aplicativo de IA da Anthropic, Claude, está chegando ao topo das paradas de downloads globais – enquanto a empresa trava uma batalha legal contra o Pentágono por designá-lo como um risco à segurança nacional.
Em uma queixa apresentada na segunda-feira no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia, a Anthropic afirma que o governo federal lançou uma campanha sem precedentes contra a empresa depois que ela manteve suas restrições de segurança. A Anthropic diz que não quer que sua IA seja usada para guerra autônoma letal ou vigilância em massa dos americanos.
“A Antthropic abre esta ação porque o governo federal retaliou por expressar esse princípio”, a reclamação afirma. “Quando a Anthropic manteve firme seu julgamento de que Claude não pode ser usado com segurança ou confiabilidade para guerra letal autônoma e vigilância em massa dos americanos, o presidente instruiu todas as agências federais a ‘CESSAR IMEDIATAMENTE todo o uso da tecnologia da Anthropic’.”
Tudo o que sabemos sobre a iminente proibição dos drones DJI nos Estados Unidos
As consequências foram rápidas e abrangentes. A Administração de Serviços Gerais rescindiu o contrato governamental da Antrópico. O Departamento do Tesouro, a Agência Federal de Financiamento da Habitação, o Departamento de Estado e outras agências governamentais anunciaram que estavam cortando relações com a empresa.
No entanto, a controvérsia parece ter feito pouco para diminuir o entusiasmo do público pelos produtos da Antrópico. Na verdade, os usuários são mais entusiasmado agora a Anthropic está enfrentando o governo Trump.
A empresa afirma que agora está adicionando mais de um milhão de novos usuários todos os dias em todo o mundo – quebrando seus próprios recordes de inscrição todos os dias desde o início da disputa.
Velocidade da luz mashável
Claude atualmente ocupa o primeiro lugar na App Store da Apple em 16 países, ultrapassando o ChatGPT da OpenAI e o Gemini do Google em mais de 20 mercados. de acordo com dados do AppFigures.
O processo marca o culminar das crescentes tensões entre a Anthropic e o Departamento de Defesa, que a administração Trump chama de Departamento de Guerra. A empresa tinha um contrato importante que tornou os seus sistemas generativos de IA os mais utilizados em todo o Pentágono.
Essa relação desmoronou quando o secretário da Defesa, Pete Hegseth, pressionou para expandir dramaticamente o papel da IA em todas as forças armadas e quis acesso irrestrito às tecnologias de IA. O esforço exigiu que todas as empresas de IA com contratos com o Pentágono renegociassem os seus acordos.
Mas como a Anthropic se tornou o fornecedor dominante de IA para os militares – sendo Claude supostamente o único modelo avançado autorizado a operar em sistemas classificados – a empresa viu-se no centro de um impasse controverso com Hegseth e Trump.
O colapso teve tanto a ver com personalidades conflitantes quanto com princípios concorrentes, de acordo com o New York Times. O diretor de tecnologia do Pentágono, Emil Michael, um ex-executivo do Uber, ficou cada vez mais frustrado com o CEO da Anthropic, Dario Amodei, ao longo de semanas de negociações.
À medida que as negociações se deterioravam, Michael começou a negociar um acordo alternativo com a OpenAI — uma empresa cujo CEO, Sam Altman, estava cortejando ativamente a administração Trump. Horas depois de o prazo do Pentágono ter passado sem acordo, Altman anunciou que a OpenAI havia chegado a um acordo com o Departamento de Defesa.
O processo argumenta as ações do governo – incluindo as de Trump diretiva ordenando que todas as agências federais parar imediatamente de usar a IA da Anthropic e a designação da empresa pela secretária Hegseth como um risco na cadeia de suprimentos – viola a Primeira Emenda, bem como as proteções do devido processo da Quinta Emenda e a Lei de Procedimento Administrativo.
O documento da Antrópico observa que o rótulo de risco da cadeia de abastecimento tem sido historicamente reservado para empresas estrangeiras que se acredita representarem uma ameaça à segurança nacional. Nunca antes foi aplicado a uma empresa americana. A empresa está pedindo ao tribunal que declare ilegais as ações do governo e emita uma liminar permanente bloqueando sua aplicação.
Tópicos
Governo de Inteligência Artificial













