Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A Nvidia começou a vender métodos para fazer pás
Autor: Ada, Deep Tide TechFlow
São Francisco, Centro de Conferências de San Jose, GTC ao vivo.
O principal cientista da Nvidia, Bill Dally, está no palco, de frente para Jeff Dean, do Google. Os dois conversam quando Dally lança um número: “Anteriormente, migrar uma biblioteca de células padrão contendo cerca de 2500 a 3000 unidades levava uma equipe de 8 engenheiros aproximadamente 10 meses.”
Ele faz uma pausa.
“Agora, basta uma única GPU de placa única, rodando uma noite.”
A plateia não reage com surpresa, pois todos que entenderam essa frase sabem o que ela significa. O trabalho de 8 engenheiros durante 10 meses foi consumido por uma GPU produzida internamente, em uma única noite. E Dally ainda acrescenta: os resultados obtidos, em termos de área, consumo de energia e atraso, igualam ou até superam os designs humanos.
No dia seguinte, as notícias interpretaram como “Nvidia usa IA para projetar GPUs”.
Mas a verdade por trás disso é muito mais interessante do que o título das notícias.
O que a Nvidia está fazendo internamente?
O que a Nvidia está rodando internamente não é uma caixa preta, mas várias cadeias de ferramentas que foram aprimoradas ao longo de anos.
NB-Cell é um programa baseado em aprendizado por reforço, dedicado à tarefa árdua de migrar bibliotecas de células padrão. Prefix RL visa resolver um problema de pesquisa de longo prazo na colocação de fases de previsão em cadeias de previsão antecipada. Dally afirma que a disposição gerada por esse sistema “é algo que os humanos nunca conseguiriam imaginar”, e que, em comparação com o design humano, os principais indicadores melhoraram cerca de 20% a 30%.
Além disso, há dois LLMs internos, Chip Nemo e Bug Nemo. A Nvidia alimenta esses dois grandes modelos com o código RTL, documentação arquitetônica e especificações de design de cada GPU ao longo da história. Segundo Dally, isso equivale a destilar a memória muscular de vinte anos da Nvidia, de G80 a Blackwell, em um modelo interno, permitindo que um novato se conecte diretamente a vinte anos de experiência de engenheiros veteranos.
Então, “IA pode projetar GPUs” de fato?
Muito pelo contrário. Dally diz: “Gostaria muito de poder simplesmente dizer ‘me dê uma GPU nova para projetar’, mas ainda estamos longe disso.”
A Nvidia não usou IA para projetar GPUs. Mas fez outra coisa que, no futuro, impedirá que toda a indústria funcione sem ela.
Compra de 2 bilhões de dólares na área de EDA
Em 1º de dezembro de 2025, a Nvidia investiu 2 bilhões de dólares na Synopsys, uma das três maiores empresas de EDA. As duas partes assinaram um acordo de desenvolvimento conjunto, integrando a pilha de computação acelerada da Nvidia ao fluxo de trabalho completo de EDA da Synopsys, com o Blackwell e a próxima geração de GPUs Rubin sendo profundamente integrados ao Synopsys.ai.
A posição da Synopsys precisa de explicação. Cada chip avançado de processo no mundo, seja o chip M da Apple, a série MI da AMD ou o TPU do Google, é quase inteiramente projetado usando as ferramentas da Synopsys ou Cadence. Essas duas empresas, junto com a EDA da Siemens, monopolizam as ferramentas de base para o design de chips. Você pode usar chips da Qualcomm ou a linha de produção da TSMC, mas não consegue escapar do software dessas três empresas.
Três meses após o investimento na Synopsys, a Nvidia também trouxe Cadence, Siemens e Dassault para dentro, anunciando que todas estão desenvolvendo ferramentas de design de chips baseadas em IA com GPUs da Nvidia.
Os dados de benchmark divulgados pela Nvidia são impressionantes: a PrimeSim da Synopsys é quase 30 vezes mais rápida no Blackwell, o Proteus é 20 vezes mais rápido, e o Sentaurus no B200 é 12 vezes mais acelerado em comparação com CPU. A MediaTek usou a H100 para acelerar em 6 vezes o Cadence Spectre. A Astera Labs, usando Synopsys + Nvidia, acelerou a validação de chips em 3,5 vezes.
Um detalhe que merece destaque: a plataforma Millennium M2000 da Cadence, que é “exclusivamente baseada na Nvidia Blackwell para o mercado de EDA”.
A palavra “exclusivamente” é a mais importante. Ou seja, as ferramentas de EDA antes rodavam em CPUs, acessíveis a Intel e AMD. No futuro, para usar a EDA mais rápida, só será possível comprando placas da Nvidia.
A verdadeira forma do volante
A visão mais comum do volante da Nvidia é assim: vende GPUs para empresas de IA, que treinam grandes modelos, esses modelos provam que GPUs são insubstituíveis, e mais pessoas compram GPUs.
Esse volante já é assustador. Mas há uma camada abaixo dele.
A Nvidia usa suas próprias ferramentas para projetar a próxima geração de GPUs, aumentando a eficiência de design entre gerações, e ao mesmo tempo, vinculando toda a cadeia de ferramentas de EDA do setor ao seu hardware. Os concorrentes querem acompanhar, mas até as ferramentas que usam precisam ser alugadas do ecossistema da Nvidia.
Por trás do relatório que fez a ação da AMD despencar, está essa ansiedade. Mesmo que a Nvidia e a Synopsys digam que “não há obrigação de comprar hardware da Nvidia ao investir”, o mercado sabe: as funções de EDA de lançamento acelerado só rodam em hardware da Nvidia, e AMD e Intel só podem depender de uma rota de “otimização para a plataforma do maior rival”.
Imagine que, no futuro, engenheiros da AMD queiram projetar um chip comparável ao Blackwell. Ao abrir as ferramentas da Synopsys, eles descobrem que o software roda mais rápido na GPU da Nvidia. Então, eles têm duas opções: aceitar um ciclo de design duas vezes mais longo ou comprar várias placas da Nvidia para projetar um chip que supere a Nvidia.
A pá ainda está vendendo. Mas o modo de venda mudou.
A situação real das GPUs nacionais
Aqui, é preciso apresentar alguns números que trazem clareza.
No mesmo ano em que a Nvidia atingiu um lucro líquido de mais de 70 bilhões de dólares na sua fiscal de 2025, as “quatro pequenas” fabricantes nacionais de GPU — Moore Threads, Muxi, Biren e Suiyuan — estavam na fila para IPO.
O prospecto da Moore Threads mostra que, de 2022 a 2024, a empresa acumulou prejuízo de 5 bilhões de yuans, e no primeiro semestre de 2025, mais 271 milhões de yuans de prejuízo. Até 30 de junho, o prejuízo acumulado não coberto era de 1,478 bilhões de yuans. A gestão estima que só em 2027 a empresa poderá alcançar lucro consolidado. A Muxi está um pouco melhor, com prejuízo acumulado de mais de 3 bilhões de yuans. A mais problemática é a Biren, com prejuízo de mais de 6,3 bilhões de yuans em três anos e meio, e uma receita de apenas 5,89 milhões de yuans no primeiro semestre de 2025, muito abaixo dos 702 milhões de yuans da Moore Threads no mesmo período.
Quanto ao investimento em P&D, a Moore Threads gastou em 2022 uma proporção de 2422,51% da receita, e em 2024 ainda mantém 309,88%. O dinheiro gasto em pesquisa por ano é mais de três vezes a receita. Isso não é gestão empresarial, é uma transfusão contínua de sangue, sustentada pelo mercado primário e pela recente abertura do mercado de tecnologia inovadora.
No nível de ferramentas, o gargalo é ainda maior. O prospecto de IPO da BGI-Cloud em 2022 mostra que suas ferramentas suportam apenas parcialmente o processo de fabricação de chips de 5nm. A Convergence Electronics consegue cobrir os processos de 7nm, 5nm e 3nm, mas só faz ferramentas pontuais, longe de uma solução completa.
O fundador da BGI-Cloud, Liu Weiping, admite abertamente: “O suporte do EDA nacional para processos avançados ainda é claramente insuficiente, especialmente para os processos de 7nm, 5nm e 3nm. Atualmente, o EDA nacional consegue suportar até 14nm. Embora tenhamos domínio da tecnologia de 7nm, a integração profunda com aplicações reais ainda requer esforço coordenado de toda a cadeia industrial.”
Ou seja, o EDA de processo completo para tecnologias avançadas ainda é praticamente inviável nacionalmente. As empresas nacionais de GPU continuam usando ferramentas da Synopsys e Cadence para projetar chips. Em 2025, Trump anunciou uma restrição de exportação para softwares críticos, embora sem implementação concreta, e as ferramentas de EDA para processos abaixo de 7nm permanecem sob controle rigoroso. A liberação dessas licenças depende de terceiros.
A reação do mercado de capitais é surreal. No dia do IPO da Muxi, a ação fechou a 829,9 yuans, com alta de 692,95% no dia. A Moore Threads, após o IPO, chegou a ser a terceira maior em valor de mercado na A-Share, atrás apenas de Kweichow Moutai e Cambrian, com uma avaliação de aproximadamente 359,5 bilhões de yuans, segundo cálculos na época.
Por trás desses números, a verdadeira história é que um grupo de empresas que ainda queimam dinheiro, dependentes de ferramentas estrangeiras sob controle, são avaliadas no mercado secundário como “futuras Nvidia nacionais”.
E as ferramentas que usam para projetar chips estão se tornando parte do ecossistema da Nvidia. A ligação de 2 bilhões de dólares com a Synopsys, a etiqueta “exclusivamente baseada na Nvidia Blackwell” no Cadence Millennium M2000, transformam a corrida por essa tecnologia em um paradoxo.
Uma cadeia completa, do projeto à fabricação
Voltando à conversa na GTC.
Dally foi bastante humilde: “A IA ainda está longe de projetar chips por conta própria”, uma frase que a Nvidia repete há quatro ou cinco anos. Mas a forma de falar vem mudando. Há quatro anos, era “IA pode ajudar no design”, há três anos, “IA pode automatizar certas etapas”, e este ano, “em uma noite, faz o trabalho de 8 pessoas em 10 meses”. Cada ano, uma evolução, sempre com uma frase de que “ainda estamos longe do objetivo final”. Quando olhamos para trás, o que antes parecia distante, agora foi alcançado, e o que antes parecia próximo, ainda está fora de alcance para os concorrentes.
Nos últimos doze meses, a Nvidia fez uma coisa: aplicou IA nas partes mais valiosas e com maior barreira de entrada na cadeia de produção de chips, e vendeu essas ferramentas camada por camada para o setor.
Na fase de projeto, ela domina com o Chip Nemo, um LLM interno; na fase intermediária, a migração de bibliotecas de células padrão e otimizações de layout, com NB-Cell e Prefix RL; na cadeia de ferramentas de EDA, por meio do investimento de 2 bilhões na Synopsys e do “exclusivamente baseado na Nvidia Blackwell” na Cadence; na fabricação, o cálculo de litografia, com o cuLitho, já em uso na TSMC.
De projeto a fabricação, cada etapa foi refeita com IA pela Nvidia. E todas convergem para um mesmo ponto: para usar a ferramenta mais rápida, você precisa comprar a placa da Nvidia.
Para qualquer concorrente que queira projetar um chip capaz de superar o Blackwell, o que já aconteceu, a situação mais embaraçosa é essa: as ferramentas de EDA mais rápidas estão na GPU da Nvidia; o cálculo de litografia mais rápido é feito com algoritmos fornecidos pela Nvidia; o poder de computação para treinar IA de design também é da Nvidia.
O adversário que você quer derrotar está te alugando todas as ferramentas necessárias para vencê-lo. O aluguel é anual, e o preço sobe a cada ano.