Nvidia vai gastar US$ 26 bilhões nos próximos cinco anos para construir modelos de inteligência artificial de código aberto, de acordo com um Apresentação financeira de 2025. Os executivos confirmaram a notícia, que não havia sido divulgada anteriormente, em entrevistas à WIRED.
O investimento considerável poderia fazer com que a Nvidia evoluísse de um fabricante de chips com uma pilha de software impressionante para um laboratório de fronteira genuíno, capaz de competir com OpenAI e DeepSeek. É um movimento estratégico que pode consolidar ainda mais o lugar da Nvidia como fabricante líder mundial de chips de IA, uma vez que os modelos são ajustados ao hardware da empresa.
Modelos de código aberto são aqueles em que os pesos ou parâmetros que determinam o comportamento de um modelo são divulgados publicamente – às vezes com os detalhes de sua arquitetura e treinamento. Isso permite que qualquer pessoa baixe e execute-o em sua própria máquina ou na nuvem. No caso da Nvidia, a empresa também revela as inovações técnicas envolvidas na construção e treinamento de seus modelos, facilitando que startups e pesquisadores modifiquem e desenvolvam as inovações da empresa.
Na quarta-feira, a Nvidia também lançou o Nemotron 3 Super, seu modelo de IA de peso aberto mais capaz até o momento. O novo modelo tem 128 bilhões de parâmetros (uma medida do tamanho e complexidade do modelo), tornando-o aproximadamente equivalente à maior versão do GPT-OSS da OpenAI, embora a empresa afirme que supera o GPT-OSS e outros modelos em vários benchmarks.
Especificamente, a Nvidia afirma que o Nemotron 3 Super recebeu uma pontuação de 37 no Índice de Inteligência Artificial, que pontua modelos em 10 benchmarks diferentes. GPT-OSS obteve pontuação 33 – mas vários modelos chineses obtiveram pontuação superior. A Nvidia diz que o Nemotron 3 Super foi testado secretamente no PinchBench, um novo benchmark que avalia a capacidade de um modelo de controlar o OpenClaw, e ocupa o primeiro lugar nesse teste.
A Nvidia também introduziu uma série de truques técnicos que usou para treinar o Nemotron 3. Esses incluem técnicas de arquitetura e treinamento que melhoram as habilidades de raciocínio do modelo, manipulação de contextos longos e capacidade de resposta à aprendizagem por reforço.
“A Nvidia está levando o desenvolvimento de modelos abertos muito mais a sério”, diz Bryan Catanzaro, vice-presidente de pesquisa aplicada de aprendizagem profunda da Nvidia. “E estamos fazendo muito progresso.”
Fronteira Aberta
A Meta foi a primeira grande empresa de IA a lançar um modelo aberto, Llama, em 2023. No entanto, o CEO Mark Zuckerberg reiniciou recentemente os esforços de IA da empresa e sinalizou que pode não tornar os modelos futuros totalmente abertos. A OpenAI oferece um modelo aberto, chamado GPT-oss, mas é inferior às melhores ofertas proprietárias da empresa, não adequado para modificação.
Os melhores modelos dos EUA, da OpenAI, Anthropic e Google, podem ser acessados apenas pela nuvem ou por meio de uma interface de chat. Por outro lado, os pesos de muitos dos principais modelos chineses, como DeepSeek, Alibaba, Moonshot AI, Z.ai e MiniMax, são divulgados abertamente e gratuitamente. Como resultado, muitas startups e investigadores em todo o mundo estão atualmente a construir com base nos modelos chineses.
“É do nosso interesse ajudar o ecossistema a se desenvolver”, diz Catanzaro, que ingressou na Nvidia em 2011 e ajudou a liderar a mudança da empresa de fabricação de placas gráficas para jogos para fabricação de silício para IA. A Nvidia lançou o primeiro modelo Nemotron em novembro de 2023. Ele acrescenta que a Nvidia concluiu recentemente o pré-treinamento de um modelo de 550 bilhões de parâmetros. (O pré-treinamento envolve alimentar grandes quantidades de dados em um modelo espalhado por um grande número de chips especializados rodando em paralelo.) Desde então, a Nvidia lançou uma série de modelos especializados para uso em áreas como robótica, modelagem climática e dobramento de proteínas.
Kari Briski, vice-presidente de software generativo de IA para empresas, diz que os futuros modelos de IA da Nvidia ajudarão a empresa a melhorar não apenas seus chips, mas também os datacenters em escala de supercomputadores que ela constrói. “Nós o construímos para ampliar nossos sistemas e testar não apenas a computação, mas também o armazenamento e a rede, e para construir nosso roteiro de arquitetura de hardware”, diz ela.












