A encerrar por hoje, mas aqui vai algo digno de nota sobre um certo projeto de IA.
O ROMA v0.2.0 deles não foi apenas uma atualização rotineira — marcou uma mudança na abordagem científica.
Porquê? Os grandes modelos de linguagem estão a enfrentar verdadeiros obstáculos:
• Limitações da janela de contexto • Gargalos na inferência
Isto não são pequenos bugs. São desafios fundamentais que exigem um novo pensamento arquitetónico.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
7 gostos
Recompensa
7
3
Republicar
Partilhar
Comentar
0/400
ParallelChainMaxi
· 11h atrás
O problema do context window realmente precisa de uma mudança de arquitetura, não dá para resolver só aumentando os parâmetros.
Ver originalResponder0
SlowLearnerWang
· 11h atrás
Ai, mais uma daquelas coisas que outros já tinham percebido há imenso tempo, e só agora é que me apercebo... aquele monte de coisas da janela de contexto são mesmo um grande problema.
Ver originalResponder0
WhaleSurfer
· 12h atrás
Ah, isto sim é atacar o problema pela raiz, a janela de contexto já bloqueou os sonhos de tanta gente.
A encerrar por hoje, mas aqui vai algo digno de nota sobre um certo projeto de IA.
O ROMA v0.2.0 deles não foi apenas uma atualização rotineira — marcou uma mudança na abordagem científica.
Porquê? Os grandes modelos de linguagem estão a enfrentar verdadeiros obstáculos:
• Limitações da janela de contexto
• Gargalos na inferência
Isto não são pequenos bugs. São desafios fundamentais que exigem um novo pensamento arquitetónico.