El nuevo modelo Apriel-1.6-15B-Thinker lanzado por el equipo de investigación de ServiceNow es realmente impresionante: con solo 15 mil millones de parámetros logra un rendimiento comparable a modelos de su misma categoría, y su tamaño se reduce directamente 15 veces. Aún más destacable es que el 15% de los datos de preentrenamiento se procesó gracias a la optimización de potencia de NVIDIA, una estrategia de eficiencia computacional que merece la pena seguir de cerca.
Si se logra consolidar el camino de modelos pequeños con alto rendimiento, el impacto en la estructura del mercado de potencia computacional de IA será significativo. Al fin y al cabo, ahora todo el mundo está gastando grandes sumas en aumentar los parámetros, así que una solución que logre los mismos resultados con menos recursos será sin duda más atractiva.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
5
Republicar
Compartir
Comentar
0/400
ShibaMillionairen't
· hace11h
¿Una reducción de volumen de 15 veces? Si realmente puede funcionar de manera estable, el coste de la potencia de cálculo se reduciría a la mitad directamente.
Ver originalesResponder0
AirdropHunterXM
· hace11h
¿15B puede igualar a los grandes modelos? Si realmente puede ofrecer una salida estable, el coste de computación se reduciría a la mitad.
Ver originalesResponder0
wagmi_eventually
· hace11h
¡Con solo 15B ya se puede lograr, esto sí que es el camino correcto! Por fin hay alguien que no solo sabe aumentar parámetros.
Ver originalesResponder0
GweiWatcher
· hace11h
Joder, una reducción de volumen de 15 veces y aún así consigue el mismo efecto; si esto realmente se puede implementar, los fabricantes de GPU van a echarse a llorar.
Ver originalesResponder0
WhaleWatcher
· hace11h
Reducir el tamaño 15 veces y seguir funcionando, eso sí que es una verdadera habilidad, mucho mejor que esos modelos ostentosos con cientos de miles de millones de parámetros.
El nuevo modelo Apriel-1.6-15B-Thinker lanzado por el equipo de investigación de ServiceNow es realmente impresionante: con solo 15 mil millones de parámetros logra un rendimiento comparable a modelos de su misma categoría, y su tamaño se reduce directamente 15 veces. Aún más destacable es que el 15% de los datos de preentrenamiento se procesó gracias a la optimización de potencia de NVIDIA, una estrategia de eficiencia computacional que merece la pena seguir de cerca.
Si se logra consolidar el camino de modelos pequeños con alto rendimiento, el impacto en la estructura del mercado de potencia computacional de IA será significativo. Al fin y al cabo, ahora todo el mundo está gastando grandes sumas en aumentar los parámetros, así que una solución que logre los mismos resultados con menos recursos será sin duda más atractiva.