A Anthropic está acusando três empresas chinesas de inteligência artificial de “campanhas em escala industrial” para “extrair ilicitamente” sua tecnologia usando ataques de destilação. A Anthropic afirma que essas empresas criaram 24 mil contas fraudulentas para ocultar esses esforços.
Em uma postagem no blog detalhando os ataquesa Anthropic nomeou três empresas de IA, incluindo DeepSeek, fabricante dos populares modelos DeepSeek AI. A Antthropic enquadrou explicitamente o ataque como uma questão de segurança nacional.
“Identificamos campanhas em escala industrial de três laboratórios de IA – DeepSeek, Moonshot e MiniMax – para extrair ilicitamente as capacidades de Claude para melhorar seus próprios modelos”, diz a postagem do blog. “Esses laboratórios geraram mais de 16 milhões de trocas com Claude por meio de aproximadamente 24 mil contas fraudulentas, violando nossos termos de serviço e restrições de acesso regionais”.
Este Tweet não está disponível no momento. Pode estar carregando ou foi removido.
Em janeiro, a OpenAI também acusou a DeepSeek de se envolver em ataques de destilação, efetivamente roubando sua tecnologia.
Na época, muitas pessoas não reagiram com simpatia, mas com zombariajá que a OpenAI e outras empresas de IA alegaram ter o direito absoluto de treinar seus modelos em obras protegidas por direitos autorais sem permissão ou pagamento. Normalmente, os defensores da indústria de IA dizem que não têm escolha a não ser treinar em obras protegidas por direitos autorais, porque os concorrentes chineses certamente ignorarão as leis de direitos autorais de qualquer maneira.
“Não se pode esperar que você tenha um programa de IA bem-sucedido quando cada artigo, livro ou qualquer outra coisa que você leu ou estudou deveria pagar”, disse o presidente Donald Trump em um evento de IA em julho de 2025. “Quando uma pessoa lê um livro ou artigo, você adquiriu um grande conhecimento. Ele também acrescentou: “A China não está fazendo isso”.
Anthropic lança Claude Sonnet 4.6: Desempenho de referência, como experimentar
Isso coloca as empresas de IA na posição incómoda de alegar que a sua propriedade intelectual está fora dos limites para a formação de modelos, ao mesmo tempo que se envolvem elas próprias em comportamentos semelhantes.
Velocidade da luz mashável
O que são ataques de destilação?
A destilação é uma técnica de treinamento comum para modelos de linguagem grande; no entanto, também pode ser usado para fazer engenharia reversa de forma eficaz em alguns aspectos da tecnologia. Na destilação, os pesquisadores de IA executam variações do mesmo prompt repetidamente para ver como um modelo específico responde.
“A destilação é um método de treinamento legítimo e amplamente utilizado. Por exemplo, os laboratórios de IA de ponta destilam rotineiramente seus próprios modelos para criar versões menores e mais baratas para seus clientes. Mas a destilação também pode ser usada para fins ilícitos: os concorrentes podem usá-la para adquirir capacidades poderosas de outros laboratórios em uma fração do tempo, e por uma fração do custo, que seria necessário para desenvolvê-los de forma independente.”
As empresas chinesas têm a reputação de ignorar flagrantemente os tratados de propriedade intelectual e as leis de direitos autorais, e tecnologia de engenharia reversa de empresas ocidentais. No entanto, embora a Anthropic diga que os ataques de destilação que descobriu violaram seus termos de serviço, não está claro se eles violaram quaisquer leis internacionais, ou que solução a Anthropic tem além de suspender as contas violadoras.
Para evitar ataques como este, a Anthropic apelou à cooperação entre empresas de IA, agências governamentais e outras partes interessadas.
Empresas de IA como Anthropic, xAI, Meta e OpenAI estão no meio de um dos maiores booms de gastos já vistos, com dezenas de bilhões de dólares sendo investidos em infraestrutura de IA, data centers e pesquisa e desenvolvimento. Se as empresas estrangeiras rivais de IA pudessem recriar de forma barata a sua tecnologia LLM utilizando destilação, teriam claramente uma vantagem sobre os seus rivais norte-americanos.
“Essas campanhas estão crescendo em intensidade e sofisticação”, diz o post do blog. “A janela para agir é estreita e a ameaça estende-se para além de qualquer empresa ou região. Enfrentá-la exigirá uma ação rápida e coordenada entre os intervenientes da indústria, os decisores políticos e a comunidade global de IA”.
Mashable entrou em contato com a Anthropic com perguntas sobre os ataques de destilação e atualizaremos este artigo se recebermos uma resposta.
Divulgação: Ziff Davis, empresa controladora da Mashable, em abril de 2025 entrou com uma ação contra a OpenAI, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.













