Nvidia 260 mil investimento em IA open source, Nemotron 3 Super desafia modelos chineses

MarketWhisper

NVIDIA lança Nemotron 3 Super

A NVIDIA lançou oficialmente na quinta-feira o Nemotron 3 Super, um modelo de IA de peso aberto com um total de 120 bilhões de parâmetros, profundamente otimizado para agentes de IA autônomos e tarefas de contexto extremamente longo. A NVIDIA anunciou um plano estratégico de cinco anos para investir 26 bilhões de dólares na criação de modelos de IA de código aberto, respondendo diretamente ao rápido crescimento de modelos de código aberto chineses no mercado global.

A arquitetura técnica do Nemotron 3 Super: uma fusão profunda de três componentes raros

O núcleo do design do Nemotron 3 Super é resolver uma dor de cabeça fundamental em sistemas de múltiplos agentes — cada chamada de ferramenta, passo de raciocínio e fragmento de contexto precisam ser retransmitidos do zero, aumentando os custos e desviando o modelo do esperado. A NVIDIA integrou três componentes que raramente aparecem juntos na mesma arquitetura:

As camadas de espaço de estado Mamba-2 (Mamba-2 State Space Layers), que substituem o mecanismo de atenção, oferecem maior velocidade e eficiência de memória ao lidar com fluxos de tokens longos; as camadas de atenção Transformer, que garantem uma recuperação de informação precisa; e o novo design de “Especialistas Latentes MoE” (Latent MoE), que comprime os tokens antes do roteamento, permitindo que o modelo ative quatro vezes mais módulos especialistas pelo mesmo custo computacional.

O modelo foi treinado nativamente no formato proprietário NVFP4 da NVIDIA, aprendendo desde a primeira atualização de gradiente em precisão de 4 bits, evitando perdas de precisão associadas ao treinamento de alta precisão seguido de compressão. A janela de contexto alcança 1 milhão de tokens, podendo armazenar completamente repositórios de código ou cerca de 750 mil palavras em inglês.

Benchmarks de desempenho e aplicações empresariais

A seguir, alguns dados-chave comparativos do desempenho do Nemotron 3 Super em throughput de inferência:

Comparado ao OpenAI GPT-OSS 120B: 2,2 vezes mais rápido

Comparado ao Qwen3.5-122B da Alibaba: 7,5 vezes mais rápido

Comparado à sua geração anterior: aumento de mais de 5 vezes no throughput geral

A NVIDIA divulgou integralmente o processo de treinamento, incluindo os pesos do modelo no Hugging Face, 10 trilhões de amostras de pré-treinamento selecionadas (com mais de 25 trilhões de amostras usadas no treinamento), 40 milhões de amostras pós-treinamento, e planos de reforço de aprendizagem que cobrem 21 configurações ambientais. Atualmente, Perplexity, Palantir, Cadence e Siemens já integraram o modelo em seus fluxos de trabalho.

A estratégia de 26 bilhões de dólares: enfrentando o crescimento global de modelos de código aberto chineses

O lançamento do Nemotron 3 Super é apenas uma parte de uma estratégia maior da NVIDIA. Bryan Catanzaro, vice-presidente de pesquisa em aprendizado profundo, disse à revista Wired que a empresa já treinou recentemente um modelo com 550 bilhões de parâmetros, e também anunciou o investimento de 26 bilhões de dólares em IA de código aberto ao longo de cinco anos.

O contexto estratégico é altamente urgente: segundo estudos do OpenRouter e Andreessen Horowitz, a utilização global de modelos de código aberto chineses subiu de 1,2% no final de 2024 para cerca de 30% até o final de 2025; o Qwen da Alibaba superou o Llama da Meta, tornando-se o modelo de código aberto mais utilizado (dados do Runpod). Rumores indicam que o próximo modelo da DeepSeek foi treinado inteiramente com chips Huawei, o que, se confirmado, oferecerá um forte incentivo para desenvolvedores globais adotarem hardware chinês — exatamente o cenário que a estratégia de código aberto da NVIDIA busca contrabalançar.

Perguntas frequentes

Quais as vantagens do Nemotron 3 Super em relação ao Qwen e ao GPT-OSS?
Em throughput de inferência, o Nemotron 3 Super é 2,2 vezes mais rápido que o GPT-OSS 120B da OpenAI e 7,5 vezes mais rápido que o Qwen3.5-122B da Alibaba. Sua principal inovação é a arquitetura híbrida Mamba-Transformer MoE e o treinamento nativo em NVFP4 de 4 bits, permitindo ativar mais especialistas com o mesmo custo computacional, resultando em um aumento de mais de cinco vezes no throughput em relação à geração anterior.

Por que a NVIDIA investe 26 bilhões de dólares na criação de modelos de IA de código aberto neste momento?
Duas razões principais: primeiro, evitar que o ecossistema de modelos de código aberto da China e seus chips formem um ciclo fechado, enfraquecendo a posição central da NVIDIA na infraestrutura global de IA; segundo, criar modelos otimizados para hardware da NVIDIA, aumentando a fidelidade de compra de seus chips. Com a participação de mercado de modelos chineses de código aberto subindo de 1,2% para cerca de 30%, o momento é de alta urgência.

O treinamento e os pesos do Nemotron 3 Super são totalmente públicos?
Sim. A NVIDIA publicou no Hugging Face todo o processo de treinamento, incluindo os pesos do modelo, 10 trilhões de amostras de pré-treinamento selecionadas, 40 milhões de amostras pós-treinamento e planos de reforço de aprendizagem em 21 configurações ambientais, com maior transparência técnica do que a maioria dos modelos comerciais similares.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário