Fireworks AI lance la version préliminaire de sa plateforme d’entraînement, prenant en charge l’entraînement de bout en bout avec des mille milliards de paramètres, en entraînant tous les paramètres.

BlockBeatNews

D’après le suivi de 1M AI News, la société d’infrastructure de raisonnement Fireworks AI a publié une version bêta de Fireworks Training, passant d’une plateforme de raisonnement pur à une plateforme intégrée pour l’entraînement et le déploiement. Fireworks AI a été fondée par Qiao Lin (Lin Qiao), ancienne ingénieure chez Meta ayant participé à la construction de PyTorch. Sa valorisation s’élève à 4 milliards de dollars, et le volume de tokens traité par jour atteint 1 500 milliards.

La plateforme propose trois niveaux :

  1. Training Agent : destiné aux équipes produit qui n’ont pas d’infrastructure ML, vous décrivez la tâche et téléversez les données, et vous obtenez le processus complet de l’entraînement au déploiement. Actuellement, il ne prend en charge que LoRA.
  2. Managed Training : destiné aux ingénieurs ML, prend en charge le SFT, le DPO et l’ajustement par renforcement, avec entraînement en paramètres complets.
  3. Training API : destiné aux équipes de recherche, vous permet de personnaliser les fonctions de perte et la boucle d’entraînement, et prend en charge des algorithmes tels que GRPO, DAPO, etc.

L’échelle de l’entraînement en paramètres complets va d’un Qwen3 8B sur un nœud unique jusqu’à Kimi K2.5 (paramètres en billions) sur 64 cartes NVIDIA B200.

Les clients de raisonnement en production de Fireworks AI, notamment l’outil de programmation IA Cursor, Vercel et Genspark, ont déjà achevé des entraînements d’apprentissage par renforcement de pointe sur cette plateforme. Vercel a entraîné un modèle de correction automatique pour son produit de génération de code v0 ; le taux de génération de code sans erreur atteint 93 %. Son CTO, Malte Ubl, indique qu’en comparaison, Sonnet 3.5 n’est qu’à 62 %, et que la latence de bout en bout s’améliore de 40 fois par rapport aux modèles propriétaires utilisés auparavant. Genspark réalise un ajustement par apprentissage par renforcement du modèle open source Kimi K2 de plusieurs billions de paramètres afin de construire un agent de recherche approfondie ; le volume d’appels d’outils augmente de 33 % et les coûts diminuent de 50 %. Cursor a terminé un entraînement par renforcement de Composer 2 de manière distribuée sur 3 à 4 clusters à l’échelle mondiale (actuellement classé n° 1 dans CursorBench) ; l’entraînement et le raisonnement en production partagent le même pool de GPU.

La différenciation technique centrale mise en avant par Fireworks AI est la cohérence numérique entre l’entraînement et l’inférence. Les modèles MoE (mélange d’experts) sont plus fragiles numériquement que les modèles denses ; de minuscules variations des états cachés peuvent inverser le routage des experts et amplifier ensuite en cascade. Fireworks publie pour tous les modèles pris en charge la valeur de la divergence KL entre l’entraînement et l’inférence, qui est toujours inférieure à 0.01.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire