Tether Lance le Framework BitNet LoRA sur Toutes les Plateformes

  • La plateforme BitNet LoRA de Tether permet la formation de modèles d’IA sur smartphones, GPU et appareils grand public.

  • Le système réduit la consommation de mémoire et améliore les performances, avec jusqu’à 77,8 % de VRAM en moins.

  • Les utilisateurs peuvent affiner des modèles jusqu’à 13 milliards de paramètres sur des appareils mobiles, élargissant les capacités de l’IA en périphérie.

Tether a annoncé une nouvelle plateforme d’IA via sa plateforme QVAC Fabric, permettant une formation BitNet LoRA multiplateforme sur des appareils grand public. La mise à jour permet aux modèles de milliards de paramètres de fonctionner sur smartphones et GPU. Le PDG Paolo Ardoino a partagé cette avancée, soulignant la réduction des coûts et un accès plus large aux outils d’IA.

La formation d’IA multiplateforme élargit l’accès

La mise à jour QVAC Fabric introduit la prise en charge multiplateforme pour l’affinement BitNet LoRA. Cela permet aux modèles d’IA de fonctionner sur différents matériels et systèmes d’exploitation.

Notamment, le cadre supporte les GPU d’AMD, Intel et Apple, y compris les chipsets mobiles. Il utilise également Vulkan et Metal comme backend pour la compatibilité.

Selon Tether, c’est la première fois que BitNet LoRA fonctionne sur une gamme aussi large d’appareils. En conséquence, les utilisateurs peuvent entraîner des modèles sur du matériel courant.

Améliorations de performance sur le matériel grand public

Le système réduit les besoins en mémoire et en calcul en combinant les techniques BitNet et LoRA. BitNet compresse les poids du modèle en valeurs simplifiées, tandis que LoRA limite les paramètres entraînables.

Ensemble, ces méthodes réduisent considérablement les exigences matérielles. Par exemple, l’inférence GPU est deux à onze fois plus rapide que sur CPU sur des appareils mobiles.

De plus, l’utilisation de mémoire diminue fortement par rapport aux modèles en précision totale. Les benchmarks montrent jusqu’à 77,8 % de VRAM en moins par rapport à des systèmes comparables.

Tether a également démontré l’affinement sur smartphones. Des tests ont montré que des modèles de 125 millions de paramètres peuvent être entraînés en quelques minutes sur des appareils comme le Samsung S25.

Les appareils mobiles et en périphérie gèrent des modèles plus grands

Le cadre permet d’exécuter des modèles plus volumineux sur des appareils en périphérie. Tether a rapporté un affinement réussi de modèles jusqu’à 13 milliards de paramètres sur l’iPhone 16.

De plus, le système supporte des GPU mobiles tels qu’Adreno, Mali et Apple Bionic. Cela étend le développement d’IA au-delà du matériel spécialisé.

Selon Paolo Ardoino, le développement d’IA dépend souvent d’infrastructures coûteuses. Il a déclaré que ce cadre déplace les capacités vers les appareils locaux.

Tether a ajouté que le système réduit la dépendance aux plateformes centralisées. Il permet également aux utilisateurs d’entraîner et de traiter des données directement sur leurs appareils.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire