Início Tecnologia O novo Nemotron 3 super de peso aberto da Nvidia combina três...

O novo Nemotron 3 super de peso aberto da Nvidia combina três arquiteturas diferentes para vencer gpt-oss e Qwen em rendimento

35
0

Os sistemas multiagentes, projetados para lidar com tarefas de longo prazo, como engenharia de software ou triagem de segurança cibernética, podem gerar até 15 vezes o volume de tokens dos bate-papos padrão – ameaçando sua relação custo-benefício no tratamento de tarefas empresariais.

Mas hoje, a Nvidia procurou ajudar a resolver este problema com o lançamento do Nemotron 3 Superum modelo híbrido de 120 bilhões de parâmetros, com pesos publicados em Abraçando o rosto.

Ao mesclar filosofias arquitetônicas díspares – modelos de espaço de estado, transformadores e um novo design “latente” de mistura de especialistas – a Nvidia está tentando fornecer a profundidade especializada necessária para fluxos de trabalho de agentes sem o inchaço típico dos modelos de raciocínio denso e todos disponíveis para uso comercial sob pesos principalmente abertos.

Arquitetura híbrida tripla

No centro do Nemotron 3 Super está uma tríade arquitetônica sofisticada que equilibra eficiência de memória com raciocínio preciso. O modelo utiliza um Backbone híbrido Mamba-Transformerque intercala camadas do Mamba-2 com camadas estratégicas de atenção do Transformer.

Para compreender as implicações para a produção empresarial, consideremos o problema da “agulha num palheiro”. As camadas Mamba-2 atuam como um sistema rodoviário de “viagem rápida”, lidando com a grande maioria do processamento de sequência com complexidade de tempo linear. Isso permite que o modelo mantenha uma enorme janela de contexto de 1 milhão de tokens sem que o consumo de memória do cache KV exploda. No entanto, os modelos puros de espaço de estados muitas vezes lutam com a recordação associativa.

Para corrigir isso, a Nvidia insere estrategicamente camadas de atenção do Transformer como “âncoras globais”, garantindo que o modelo possa recuperar com precisão fatos específicos enterrados profundamente em uma base de código ou em uma pilha de relatórios financeiros.

Além do backbone, o modelo introduz Mistura Latente de Especialistas (LatentMoE). A mistura tradicional de especialistas (MoE) projeta tokens de rota para especialistas em toda a sua dimensão oculta, o que cria um gargalo computacional à medida que os modelos são dimensionados. O LatentMoE resolve isso projetando tokens em um espaço compactado antes de encaminhá-los para especialistas.

Essa “compressão especializada” permite que o modelo consulte quatro vezes mais especialistas pelo mesmo custo computacional. Essa granularidade é vital para agentes que precisam alternar entre sintaxe Python, lógica SQL e raciocínio conversacional em um único turno.

Acelerando ainda mais o modelo está a Predição Multi-Token (MTP). Enquanto os modelos padrão preveem um único próximo token, o MTP prevê vários tokens futuros simultaneamente. Isso serve como um “modelo de rascunho integrado”, permitindo a decodificação especulativa nativa que pode fornecer velocidades de clock de até 3x para tarefas de geração estruturadas, como código ou chamadas de ferramentas.

A vantagem da Blackwell

Para as empresas, o salto técnico mais significativo do Nemotron 3 Super é a sua otimização para a plataforma GPU Nvidia Blackwell. Ao pré-treinar nativamente em NVFP4 (ponto flutuante de 4 bits), a Nvidia alcançou um avanço na eficiência de produção.

Na Blackwell, o modelo oferece inferência 4x mais rápida do que os modelos de 8 bits executados na arquitetura Hopper anterior, sem perda de precisão.

Na prática, o Nemotron 3 Super é uma ferramenta especializada para raciocínio agente.

Atualmente ocupa a posição número 1 no DeepResearch Bench, uma referência que mede a capacidade de uma IA de conduzir pesquisas completas e em várias etapas em grandes conjuntos de documentos.

Referência

Nemotron 3 Super

Qwen3.5-122B-A10B

GPT-OSS-120B

Conhecimento Geral

MMLU-Pro

83,73

86,70

81,00

Raciocínio

AIME25 (sem ferramentas)

90,21

90,36

92,50

HMMT 25 de fevereiro (sem ferramentas)

93,67

91,40

90,00

HMMT 25 de fevereiro (com ferramentas)

94,73

89,55

GPQA (sem ferramentas)

79,23

86,60

80,10

GPQA (com ferramentas)

82,70

80.09

LiveCodeBench (v5 2024-07↔2024-12)

81.19

78,93

88,00

SciCode (subtarefa)

42.05

42h00

39h00

HLE (sem ferramentas)

18h26

25h30

14h90

HLE (com ferramentas)

22,82

19,0

Agente

Banco Terminal (subconjunto rígido)

25,78

26,80

24h00

Núcleo de Bancada Terminal 2.0

31h00

37,50

18h70

Banco SWE (OpenHands)

60,47

66,40

41,9

Banco SWE (OpenCode)

59,20

67,40

Banco SWE (Codex)

53,73

61,20

SWE-Bench Multilíngue (OpenHands)

45,78

30,80

TauBench V2

Companhia aérea

56,25

66,0

49,2

Varejo

62,83

62,6

67,80

Telecomunicações

64,36

95,00

66,00

Média

61,15

74,53

61,0

BrowseComp com pesquisa

31.28

33,89

Banco PÁSSARO

41,80

38,25

Bate-papo e acompanhamento de instruções

IFBench (prompt)

72,56

73,77

68,32

Escalar múltiplos desafios de IA

55,23

61,50

58,29

Arena-Difícil-V2

73,88

75,15

90,26

Contexto longo

AA-LCR

58,31

66,90

51,00

RÉGUA @ 256k

96h30

96,74

52h30

RÉGUA @ 512k

95,67

95,95

46,70

RÉGUA @ 1M

91,75

91,33

22h30

Multilíngue

MMLU-ProX (média sobre idiomas)

79,36

85.06

76,59

WMT24++ (pt→xx)

86,67

87,84

88,89

Ele também demonstra vantagens significativas de rendimento, alcançando rendimento até 2,2x maior que o gpt-oss-120B e 7,5x maior que o Qwen3.5-122B em configurações de alto volume.

Gráfico de benchmarks principais do Nvidia Nemotron 3 Super. Nvidia

Licença ‘aberta’ personalizada – uso comercial, mas com advertências importantes

O lançamento do Nemotron 3 Super sob o Contrato de licença de modelo aberto da Nvidia (atualizado em outubro de 2025) fornece uma estrutura permissiva para adoção empresarial, embora contenha cláusulas de “salvaguarda” distintas que a diferenciam de licenças puras de código aberto, como MIT ou Apache 2.0.

Principais disposições para usuários corporativos:

  • Usabilidade Comercial: A licença declara explicitamente que os modelos são “utilizáveis ​​comercialmente” e concede uma licença perpétua, mundial e isenta de royalties para vender e distribuir produtos construídos com base no modelo.

  • Propriedade da saída: A Nvidia não reivindica os resultados gerados pelo modelo; a responsabilidade por esses resultados – e a propriedade deles – é inteiramente do usuário.

  • Obras Derivadas: As empresas são livres para criar e possuir “Modelos Derivados” (versões ajustadas), desde que incluam o aviso de atribuição exigido: “Licenciado pela Nvidia Corporation sob a licença Nvidia Open Model.”

As “Linhas Vermelhas”:

A licença inclui dois gatilhos críticos de rescisão que as equipes de produção devem monitorar:

  1. Guarda-corpos de segurança: A licença termina automaticamente se um usuário ignorar ou contornar os “Guardrails” do modelo (limitações técnicas ou hiperparâmetros de segurança) sem implementar uma substituição “substancialmente semelhante” apropriada para o caso de uso.

  2. Gatilho de litígio: Se um usuário iniciar um litígio de direitos autorais ou patentes contra a Nvidia, alegando que o modelo viola sua propriedade intelectual, sua licença para usar o modelo será encerrada imediatamente.

Essa estrutura permite que a Nvidia promova um ecossistema comercial enquanto se protege de “trollagem de IP” e garante que o modelo não seja despojado de seus recursos de segurança para uso malicioso.

‘A equipe realmente cozinhou’

O lançamento gerou um burburinho significativo na comunidade de desenvolvedores. Chris Alexiuk, engenheiro sênior de pesquisa de produto da Nvidia, anunciou o lançamento do X sob seu comando @llm_wizard como um “SUPER DIA”, enfatizando a rapidez e transparência do modelo. “O modelo é: RÁPIDO. O modelo é: INTELIGENTE. O modelo é: O MODELO MAIS ABERTO QUE JÁ FIZEMOS.” Chris postou, destacando o lançamento não apenas de pesos, mas de 10 trilhões de tokens de dados e receitas de treinamento.

A adoção pela indústria reflete esse entusiasmo:

  • Nuvem e Hardware: O modelo está sendo implantado como um Microsserviço Nvidia NIMpermitindo que ele seja executado no local por meio do Fábrica de IA da Dell ou HPEbem como no Google Cloud, Oracle e, em breve, AWS e Azure.

  • Agentes de Produção: Empresas como Código Coelho (desenvolvimento de software) e Greptil estão integrando o modelo para lidar com análises de base de código em larga escala, enquanto líderes industriais como Siemens e Palantir estão implantando-o para automatizar fluxos de trabalho complexos em manufatura e segurança cibernética.

Como observou Kari Briski, vice-presidente de software de IA da Nvidia: “À medida que as empresas vão além dos chatbots e entram em aplicações multiagentes, elas encontram… explosão de contexto.”

Nemotron 3 Super é a resposta da Nvidia a essa explosão – um modelo que fornece a “potência intelectual” de um sistema de parâmetros 120B com a eficiência operacional de um especialista muito menor. Para as empresas, a mensagem é clara: o “imposto do pensamento” está finalmente a diminuir.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui