A encerrar por hoje, mas aqui vai algo digno de nota sobre um certo projeto de IA.
O ROMA v0.2.0 deles não foi apenas uma atualização rotineira — marcou uma mudança na abordagem científica.
Porquê? Os grandes modelos de linguagem estão a enfrentar verdadeiros obstáculos:
• Limitações da janela de contexto • Gargalos na inferência
Isto não são pequenos bugs. São desafios fundamentais que exigem um novo pensamento arquitetónico.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
7 Curtidas
Recompensa
7
3
Repostar
Compartilhar
Comentário
0/400
ParallelChainMaxi
· 9h atrás
O problema do context window realmente precisa de uma mudança de arquitetura, não dá para resolver só aumentando os parâmetros.
Ver originalResponder0
SlowLearnerWang
· 9h atrás
Ai, mais uma daquelas coisas que outros já tinham percebido há imenso tempo, e só agora é que me apercebo... aquele monte de coisas da janela de contexto são mesmo um grande problema.
Ver originalResponder0
WhaleSurfer
· 10h atrás
Ah, isto sim é atacar o problema pela raiz, a janela de contexto já bloqueou os sonhos de tanta gente.
A encerrar por hoje, mas aqui vai algo digno de nota sobre um certo projeto de IA.
O ROMA v0.2.0 deles não foi apenas uma atualização rotineira — marcou uma mudança na abordagem científica.
Porquê? Os grandes modelos de linguagem estão a enfrentar verdadeiros obstáculos:
• Limitações da janela de contexto
• Gargalos na inferência
Isto não são pequenos bugs. São desafios fundamentais que exigem um novo pensamento arquitetónico.