A ferramenta de codificação de IA de US$ 29,3 bilhões acabou de ser pega mostrando sua procedência. Quando Cursor lançado Compositor 2 na semana passada – chamando-o de “inteligência de codificação de nível de fronteira” – apresentou o modelo como evidência de que a empresa é um laboratório sério de pesquisa de IA, e não apenas um ambiente de desenvolvimento integrado (IDE) bifurcado que envolve o modelo básico de outra pessoa. O que o anúncio omitiu foi que o Composer 2 foi construído sobre Kimi K2.5um modelo de código aberto da Moonshot AI, uma startup chinesa apoiada pela Alibaba, Tencent e HongShan (a empresa anteriormente conhecida como Sequoia China).
Um desenvolvedor chamado Fynn (@fynnso) no X descobri em poucas horas. Ao configurar um servidor proxy de depuração local e rotear o tráfego da API do Cursor através dele, Fynn interceptou a solicitação de saída e encontrou o ID do modelo à vista: contas/anysphere/models/kimi-k2p5-rl-0317-s515-fast.
“Então o compositor 2 é apenas Kimi K2.5 com RL”, escreveu Fynn. “Pelo menos renomeie o ID do modelo.” A postagem acumulou 2,6 milhões de visualizações.
Em um acompanhamento, Fynn observou que o modelo anterior do Cursor, o Composer 1.5, bloqueava esse tipo de interceptação de solicitação – mas o Composer 2 não o fazia, chamando-o de “provavelmente um descuido”. O Cursor rapidamente corrigiu isso, mas o fato foi claramente revelado.
O vice-presidente de educação para desenvolvedores da Cursor, Lee Robinson, confirmou a conexão com Kimi em poucas horas, e o cofundador Aman Sanger reconheceu isso foi um erro não divulgar o modelo básico desde o início.
Mas a história que importa aqui não é sobre a falha de divulgação de uma empresa. É sobre por que a Cursor – e provavelmente muitas outras empresas de produtos de IA – recorreu a um modelo aberto chinês em primeiro lugar.
O vácuo do modelo aberto: por que as empresas ocidentais continuam buscando fundações chinesas
A decisão do Cursor de desenvolver o Kimi K2.5 não foi aleatória. O modelo é uma arquitetura de mistura de especialistas de 1 trilhão de parâmetros com 32 bilhões de parâmetros ativos, uma janela de contexto de 256.000 tokens, suporte nativo para imagem e vídeo e um recurso Agent Swarm que executa até 100 subagentes paralelos simultaneamente.
Lançado sob uma licença modificada do MIT que permite o uso comercial, o Kimi K2.5 é competitivo com os melhores modelos do mundo em benchmarks de agências e obteve a primeira pontuação entre todos os modelos no MathVista no lançamento.
Quando uma empresa de produtos de IA precisa de um modelo aberto forte para pré-treinamento contínuo e aprendizado por reforço – o tipo de personalização profunda que transforma uma base em um produto diferenciado – as opções dos laboratórios ocidentais têm sido surpreendentemente escassas.
O Llama 4 Scout e o Maverick da Meta foram enviados em abril de 2025, mas estavam em falta, e o tão esperado Llama 4 Behemoth foi adiado indefinidamente. Em março de 2026, o Behemoth ainda não tinha uma data de lançamento pública, com relatórios sugerindo que as equipes internas da Meta não estavam convencidas de que o modelo de 2 trilhões de parâmetros oferece um salto de desempenho suficiente para justificar seu envio.
A família Gemma 3 do Google atingiu o máximo de 27 bilhões de parâmetros – excelente para implantação de borda e acelerador único, mas não uma base de classe de fronteira para a construção de agentes de codificação de produção. Gemma 4 ainda não foi anunciado, embora tenha gerado especulações de que um lançamento pode ser iminente.
E há também o OpenAI, que lançou indiscutivelmente o concorrente americano de código aberto mais conspícuo, a família gpt-oss (em variantes de 20 bilhões e 120 bilhões de parâmetros) em agosto de 2025. Por que o Cursor não construiria sobre esse modelo se precisasse de um modelo básico para fazer o ajuste fino?
A resposta está na “densidade de inteligência” necessária para a codificação de classe de fronteira. Embora o gpt-oss-120b seja uma conquista monumental para o código aberto ocidental – oferecendo capacidades de raciocínio que rivalizam com modelos proprietários como o o4-mini – é fundamentalmente um modelo esparso de Mistura de Especialistas (MoE) que ativa apenas 5,1 bilhões de parâmetros por token. Para um assistente de raciocínio de uso geral, esse é um golpe de mestre em eficiência; para uma ferramenta como o Composer 2, que deve manter a coerência estrutural em uma janela de contexto de 256.000 tokens, ela é indiscutivelmente muito “fina”. Por outro lado, o Kimi K2.5 é um titã de 1 trilhão de parâmetros que mantém 32 bilhões de parâmetros ativos a qualquer momento. No mundo de alto risco da codificação de agentes, a massa cognitiva absoluta ainda dita o desempenho, e o Cursor calculou claramente que a vantagem de 6x de Kimi na contagem de parâmetros ativos era essencial para sintetizar a “explosão de contexto” que ocorre durante tarefas complexas de programação autônoma de várias etapas.
Além da escala bruta, há a questão da resiliência estrutural. Os modelos abertos da OpenAI ganharam uma reputação discreta entre a elite círculos de desenvolvedores por serem “frágeis pós-treinamento”—modelos que são brilhantes fora da caixa, mas propensos ao esquecimento catastrófico quando submetidos ao tipo de aprendizado agressivo e de reforço de alta computação exigido pelo Cursor.
O Cursor não aplicou apenas um leve ajuste; eles executaram um “aumento de escala de 4x” no treinamento de computação para incorporar sua lógica proprietária de auto-resumo. O Kimi K2.5, construído especificamente para estabilidade de agente e tarefas de longo horizonte, forneceu um “chassi” mais durável para essas reformas arquitetônicas profundas. Isso permitiu que o Cursor construísse um agente especializado que pudesse resolver problemas de nível competitivo, como compilar o Doom original para uma arquitetura MIPS, sem que a lógica central do modelo entrasse em colapso sob o peso de seu próprio treinamento especializado.
Isso deixa uma lacuna. E os laboratórios chineses – Moonshot, DeepSeek, Qwen e outros – o preencheram agressivamente. Os modelos V3 e R1 da DeepSeek causaram pânico no Vale do Silício no início de 2025 ao igualar o desempenho de ponta por uma fração do custo. A família Qwen3.5 do Alibaba enviou modelos em quase todos os parâmetros, de 600 milhões a 397 bilhões de parâmetros ativos. Kimi K2.5 é o local ideal para empresas que desejam uma base poderosa, aberta e personalizável.
A Cursor não é a única empresa de produtos nesta posição. Qualquer empresa que construa aplicações especializadas de IA com base em modelos abertos enfrenta hoje o mesmo cálculo: as fundações abertas mais capazes e licenciadas de forma mais permissiva vêm desproporcionalmente de laboratórios chineses.
O que o Cursor realmente construiu – e por que o modelo básico é menos importante do que você pensa
Para seu crédito, o Cursor não apenas colocou uma interface de usuário em Kimi. Lee Robinson afirmou que cerca de um quarto da computação total usada para construir o Composer 2 veio da base Kimi, com os três quartos restantes do treinamento contínuo do próprio Cursor. A empresa postagem técnica no blog descreve uma técnica chamada auto-resumo que aborda um dos problemas mais difíceis da codificação de agentes: estouro de contexto durante tarefas de longa execução.
Quando um agente de codificação de IA trabalha em problemas complexos e de várias etapas, ele gera muito mais contexto do que qualquer modelo pode conter na memória de uma só vez. A solução alternativa típica — truncar o contexto antigo ou usar um modelo separado para resumi-lo — faz com que o agente perca informações críticas e cometa erros em cascata. A abordagem do Cursor treina o próprio modelo para comprimir sua própria memória de trabalho no meio de uma tarefa, como parte do processo de aprendizagem por reforço. Quando o Composer 2 se aproxima do limite de contexto, ele pausa, compacta tudo para aproximadamente 1.000 tokens e continua. Esses resumos são recompensados ou penalizados com base no fato de terem ajudado a concluir a tarefa geral, para que o modelo aprenda o que reter e o que descartar ao longo de milhares de execuções de treinamento.
Os resultados são significativos. O Cursor relata que o auto-resumo reduz os erros de compactação em 50% em comparação com linhas de base baseadas em prompts altamente projetadas, usando um quinto dos tokens. Como demonstração, o Composer 2 resolveu um problema de Terminal-Bench – compilando o jogo Doom original para uma arquitetura de processador MIPS – em 170 turnos, resumindo automaticamente mais de 100.000 tokens repetidamente ao longo da tarefa. Vários modelos de fronteira não conseguem completá-lo. Sobre CursorBencho Composer 2 pontua 61,3 em comparação com 44,2 para o Composer 1.5, e atinge 61,7 no Terminal-Bench 2.0 e 73,7 no SWE-bench Multilingual.
A própria Moonshot AI respondeu de forma favorável depois que a história foi divulgada, postando no X que estava orgulhoso de ver Kimi fornecer a base e confirmando que o Cursor acessou o modelo por meio de uma parceria comercial autorizada com a Fireworks AI, uma empresa de hospedagem de modelos. Nada foi roubado. O uso foi licenciado comercialmente.
Além da atribuição: o silêncio levanta questões de licenciamento e governança
O cofundador do Cursor, Aman Sanger, reconheceu a omissão, dizendo que foi uma falta não mencionar a base Kimi na postagem original do blog. As razões desse silêncio não são difíceis de inferir. A Cursor está avaliada em quase US$ 30 bilhões com base na premissa de que é uma empresa de pesquisa de IA, não uma camada de integração. E o Kimi K2.5 foi construído por uma empresa chinesa apoiada pela Alibaba – uma proveniência sensível num momento em que a relação de IA EUA-China é tensa e os clientes governamentais e empresariais se preocupam cada vez mais com as origens da cadeia de abastecimento.
A verdadeira lição é mais ampla. Toda a indústria se baseia nas bases de outras pessoas. Os modelos da OpenAI são treinados em décadas de pesquisas acadêmicas e dados em escala da Internet. O Llama da Meta é treinado com base em dados que nem sempre divulga totalmente. Cada modelo fica sobre camadas de trabalho anterior. A questão é o que as empresas dizem sobre isso – e neste momento, a estrutura de incentivos recompensa o obscurecimento da ligação, especialmente quando a fundação vem da China.
Para os tomadores de decisão de TI que avaliam ferramentas de codificação de IA e plataformas de agentes, este episódio traz à tona questões práticas: você sabe o que está por trás do produto do seu fornecedor de IA? Isso é importante para seus requisitos de conformidade, segurança e cadeia de suprimentos? E o seu fornecedor está cumprindo as obrigações de licença de seu próprio modelo básico?
A lacuna do modelo aberto ocidental está começando a diminuir – mas lentamente
A boa notícia para as empresas preocupadas com a proveniência dos modelos é que parece que os modelos abertos ocidentais estão prestes a tornar-se significativamente mais competitivos. A NVIDIA está em uma cadência de lançamento agressiva. Nemotron 3 Superlançado em 11 de março, é um modelo Mamba-Transformer híbrido de 120 bilhões de parâmetros com 12 bilhões de parâmetros ativos, uma janela de contexto de 1 milhão de tokens e rendimento até 5x maior que seu antecessor. Ele usa uma nova arquitetura latente de mistura de especialistas e foi pré-treinado no formato NVFP4 da NVIDIA na arquitetura Blackwell. Empresas como Perplexity, CodeRabbit, Factory e Greptile já estão integrando-o em seus agentes de IA.
Dias depois, a NVIDIA seguiu com Nemotron-Cascata 2um modelo MoE de 30 bilhões de parâmetros com apenas 3 bilhões de parâmetros ativos que supera o Qwen 3.5-35B e o maior Nemotron 3 Super em matemática, raciocínio de código, alinhamento e benchmarks de seguimento de instruções. O Cascade 2 alcançou desempenho de medalha de ouro na Olimpíada Internacional de Matemática de 2025, na Olimpíada Internacional de Informática e nas Finais Mundiais do ICPC – tornando-o apenas o segundo modelo de peso aberto depois do DeepSeek-V3.2-Speciale a conseguir isso. Ambos os modelos são fornecidos com pesos totalmente abertos, conjuntos de dados de treinamento e receitas de aprendizado por reforço sob licenças permissivas – exatamente o tipo de transparência que o episódio Kimi do Cursor destacou como faltando.
O que os líderes de TI devem observar: a questão da proveniência não vai desaparecer
O episódio Cursor-Kimi é uma prévia de um padrão recorrente. À medida que as empresas de produtos de IA constroem cada vez mais aplicações diferenciadas através de pré-formação contínua, aprendizagem por reforço e novas técnicas, como auto-resumo sobre modelos de base aberta, a questão de qual a base que fica na parte inferior da pilha torna-se uma questão de governação empresarial – e não apenas de preferência técnica.
A família Nemotron da NVIDIA e o antecipado Gemma 4 representam os candidatos mais fortes no curto prazo para preencher a lacuna do modelo aberto ocidental. A arquitetura híbrida do Nemotron 3 Super e a janela de contexto de um milhão de tokens o tornam diretamente relevante para os mesmos casos de uso de codificação de agente que o Cursor abordou com Kimi. A extraordinária densidade de inteligência do Cascade 2 – desempenho competitivo com medalha de ouro em apenas 3 bilhões de parâmetros ativos – sugere que modelos menores e altamente otimizados treinados com técnicas avançadas de RL podem substituir cada vez mais as enormes fundações chinesas que dominaram o cenário do modelo aberto.
Mas, por enquanto, a linha entre os produtos americanos de IA e as fundações do modelo chinês não é tão clara como sugere a narrativa geopolítica. Uma das ferramentas de codificação mais utilizadas no mundo funciona em um modelo apoiado pelo Alibaba – e pode não ter atendido originalmente aos requisitos de atribuição da licença que a permitiu. Cursor diz que divulgará o modelo básico na próxima vez. A questão mais interessante é se, da próxima vez, haverá uma alternativa ocidental credível para divulgar..











