Antrópico é acusando três empresas chinesas de IA criaram mais de 24.000 contas falsas com seu modelo Claude AI para melhorar seus próprios modelos.
Os laboratórios – DeepSeek, Moonshot AI e MiniMax – supostamente geraram mais de 16 milhões de trocas com Claude por meio dessas contas usando uma técnica chamada “destilação”. A Anthropic disse que os laboratórios “visaram as capacidades mais diferenciadas de Claude: raciocínio agente, uso de ferramentas e codificação”.
As acusações surgem em meio a debates sobre como aplicar rigorosamente os controles de exportação de chips avançados de IA, uma política que visa restringir o desenvolvimento da IA na China.
A destilação é um método de treinamento comum que os laboratórios de IA usam em seus próprios modelos para criar versões menores e mais baratas, mas os concorrentes podem usá-lo para copiar essencialmente o trabalho de casa de outros laboratórios. A OpenAI enviou um memorando aos legisladores da Câmara no início deste mês acusando a DeepSeek de usar destilação para imitar seus produtos.
A DeepSeek causou sensação pela primeira vez há um ano, quando lançou seu modelo de raciocínio R1 de código aberto que quase se igualou aos laboratórios de fronteira americanos em desempenho por uma fração do custo. Espera-se que a DeepSeek lance em breve o DeepSeek V4, seu modelo mais recente, que supostamente pode superar Claude da Anthropic e ChatGPT da OpenAI em codificação.
A escala de cada ataque diferia em escopo. A Anthropic rastreou mais de 150.000 trocas do DeepSeek que pareciam ter como objetivo melhorar a lógica e o alinhamento fundamentais, especificamente em torno de alternativas seguras de censura para consultas sensíveis a políticas.
Moonshot AI teve mais de 3,4 milhões de trocas visando raciocínio de agente e uso de ferramentas, codificação e análise de dados, desenvolvimento de agente para uso de computador e visão computacional. No mês passado, a empresa lançou um novo modelo de código aberto Kimi K2.5 e um agente de codificação.
Evento Techcrunch
Boston, MA
|
9 de junho de 2026
As 13 milhões de exchanges do MiniMax visavam codificação de agentes, uso e orquestração de ferramentas. A Anthropic disse que foi capaz de observar o MiniMax em ação enquanto redirecionava quase metade de seu tráfego para extrair recursos do modelo Claude mais recente quando foi lançado.
A Anthropic afirma que continuará a investir em defesas que tornem os ataques de destilação mais difíceis de executar e mais fáceis de identificar, mas apela a “uma resposta coordenada em toda a indústria de IA, fornecedores de nuvem e decisores políticos”.
Os ataques à destilação ocorrem num momento em que as exportações americanas de chips para a China ainda são calorosamente debatidas. No mês passado, a administração Trump permitiu formalmente que empresas norte-americanas como a Nvidia exportassem chips avançados de IA (como o H200) para a China. Os críticos argumentam que este afrouxamento dos controlos de exportação aumenta a capacidade de computação da IA da China num momento crítico da corrida global pelo domínio da IA.
A Anthropic diz que a escala de extração realizada por DeepSeek, MiniMax e Moonshot “requer acesso a chips avançados”.
“Os ataques de destilação reforçam, portanto, a justificativa para os controles de exportação: o acesso restrito aos chips limita tanto o treinamento direto do modelo quanto a escala da destilação ilícita”, de acordo com o blog da Anthropic.
Dmitri Alperovitch, presidente do grupo de reflexão Silverado Policy Accelerator e cofundador da CrowdStrike, disse ao TechCrunch que não está surpreso ao ver esses ataques.
“Já faz algum tempo que está claro que parte da razão para o rápido progresso dos modelos de IA chineses tem sido o roubo através da destilação de modelos de fronteira dos EUA. Agora sabemos disso com certeza”, disse Alperovitch. “Isso deve nos dar razões ainda mais convincentes para recusar a venda de quaisquer chips de IA a qualquer um desses [companies], o que só os beneficiaria ainda mais.”
A Anthropic também disse que a destilação não apenas ameaça minar o domínio americano da IA, mas também pode criar riscos à segurança nacional.
“A Antthropic e outras empresas dos EUA constroem sistemas que impedem que atores estatais e não estatais usem IA para, por exemplo, desenvolver armas biológicas ou realizar atividades cibernéticas maliciosas”, diz a postagem do blog da Anthropic. “É pouco provável que os modelos construídos através da destilação ilícita mantenham essas salvaguardas, o que significa que capacidades perigosas podem proliferar com muitas proteções totalmente eliminadas.”
A Anthropic apontou para governos autoritários que implementam IA de fronteira para coisas como “operações cibernéticas ofensivas, campanhas de desinformação e vigilância em massa”, um risco que é multiplicado se esses modelos forem de código aberto.
TechCrunch entrou em contato com DeepSeek, MiniMax e Moonshot para comentar.












