L'équipe de recherche de ServiceNow a récemment lancé le modèle Apriel-1.6-15B-Thinker, qui est vraiment impressionnant : avec une taille de 15 milliards de paramètres, il parvient à obtenir des performances équivalentes à des modèles de la même catégorie, tout en réduisant sa taille de 15 fois. Encore plus remarquable, 15 % des données de pré-entraînement sont optimisées grâce aux pilotes NVIDIA, une approche d'optimisation de la puissance de calcul qui mérite d'être suivie de près.
Si la voie des petits modèles à haute performance s'avère viable, cela pourrait avoir un impact significatif sur l'ensemble du marché de la puissance de calcul pour l'IA. Après tout, alors que tout le monde dépense actuellement des fortunes pour augmenter le nombre de paramètres, une solution permettant de faire le même travail avec moins de ressources serait forcément plus attrayante.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
5
Reposter
Partager
Commentaire
0/400
ShibaMillionairen't
· Il y a 11h
Réduction de volume par 15 ? Si ça peut vraiment fonctionner de manière stable, le coût de calcul serait directement divisé par deux.
Voir l'originalRépondre0
AirdropHunterXM
· Il y a 11h
Un modèle de seulement 15B peut-il vraiment rivaliser avec les grands modèles ? Si cela peut vraiment fournir des résultats stables, le coût de calcul serait immédiatement réduit de moitié.
Voir l'originalRépondre0
wagmi_eventually
· Il y a 11h
On peut y arriver avec seulement 15B, c’est ça la vraie voie. Enfin quelqu’un qui ne fait pas que gonfler les paramètres.
Voir l'originalRépondre0
GweiWatcher
· Il y a 11h
Putain, une réduction de volume par 15 tout en conservant les mêmes performances, si ça se concrétise, les fabricants de GPU vont pleurer.
Voir l'originalRépondre0
WhaleWatcher
· Il y a 11h
Réduire le volume de 15 fois et rester performant, voilà ce qu’on appelle du vrai savoir-faire. C’est bien mieux que ces modèles tape-à-l’œil avec des dizaines de milliards de paramètres.
L'équipe de recherche de ServiceNow a récemment lancé le modèle Apriel-1.6-15B-Thinker, qui est vraiment impressionnant : avec une taille de 15 milliards de paramètres, il parvient à obtenir des performances équivalentes à des modèles de la même catégorie, tout en réduisant sa taille de 15 fois. Encore plus remarquable, 15 % des données de pré-entraînement sont optimisées grâce aux pilotes NVIDIA, une approche d'optimisation de la puissance de calcul qui mérite d'être suivie de près.
Si la voie des petits modèles à haute performance s'avère viable, cela pourrait avoir un impact significatif sur l'ensemble du marché de la puissance de calcul pour l'IA. Après tout, alors que tout le monde dépense actuellement des fortunes pour augmenter le nombre de paramètres, une solution permettant de faire le même travail avec moins de ressources serait forcément plus attrayante.