Source : TokenPost
Titre original : 엔비디아(NVDA), devient le 'système d'exploitation' de l'AI Factory… leader de l'innovation des réseaux de centres de données
Lien Original :
NVIDIA ( NVDA ) dépasse les GPU haute performance, se concentre sur l'innovation de l'architecture réseau entre les centres de données, établissant de nouvelles normes pour les usines d'IA. Dans une structure de calcul distribué, le réseau est considéré comme un système d'exploitation pour améliorer les performances et l'efficacité énergétique.
Le vice-président senior du département marketing de NVIDIA, Gilad Shainer, a souligné lors d'une récente interview : “Les charges de travail AI sont essentiellement distribuées, nécessitant une coordination réseau précise pour faire fonctionner des milliers d'accélérateurs comme un seul moteur de calcul.” Une structure permettant de transmettre les mêmes données à chaque GPU sans délai et à la même vitesse doit être mise en place pour optimiser la vitesse de calcul globale.
Dans cette structure de traitement distribué, le réseau n'est plus un simple moyen de connexion, mais joue un rôle en tant que système d'exploitation substantiel (OS). Shaina a déclaré que ce n'est pas seulement des ASIC dédiés aux GPU individuels ( circuits intégrés dédiés ), mais aussi la conception de réseaux qui intègre de manière organique ces accélérateurs, qui est devenue le facteur le plus important déterminant les performances des usines d'IA.
NVIDIA ne se contente pas de considérer la performance, mais intègre également l'efficacité énergétique dans ses réflexions, en adoptant une méthode de conception collaborative (Co-design) pour une conception réseau complète à travers le matériel, le logiciel et les cadres. Lorsque tous les éléments de calcul, du cadre du modèle à la connexion physique, sont conçus de manière globale, cela permet de maximiser la vitesse de traitement des jetons, l'efficacité d'exécution et la prévisibilité. Shayna a souligné ce point.
En particulier, la conception à haute densité est l'avantage différentiel de NVIDIA. Bien que les centres de données traditionnels aient tendance à éviter une trop grande densité, NVIDIA a adopté une stratégie différente : disposer des GPU ASIC haute performance de manière compacte dans les racks, réalisant ainsi les deux objectifs d'évolutivité et d'efficacité énergétique grâce à des connexions en cuivre à faible consommation. Lors de l'expansion à grande échelle, l'application de 'Spectrum-X Ethernet Photonics ( Spectrum-X Ethernet Photonics )' ou de 'Quantum-X InfiniBand' et d'autres technologies d'optique co-emballées ( Co-packaged Optics ) permet de réduire encore l'énergie consommée par le mouvement des données.
Cette stratégie va au-delà d'une simple mise à niveau matérielle, illustrant clairement l'ambition de NVIDIA de réaliser un nouveau paradigme 'centre de données hyper grandes tailles = superordinateur' à l'ère du calcul centralisé en IA. Le pouvoir d'infrastructure des usines d'IA passe de 'capacité de fabrication de GPU' à 'capacité de transformer l'ensemble du centre de données en unités de calcul organiques'. La prochaine étape de l'engouement pour l'IA semble commencer avec cette architecture de calcul dominée par le réseau.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
NVIDIA ( NVDA ) devient le 'système d'exploitation' de l'usine AI : domination de l'innovation des réseaux de centres de données.
Source : TokenPost Titre original : 엔비디아(NVDA), devient le 'système d'exploitation' de l'AI Factory… leader de l'innovation des réseaux de centres de données Lien Original : NVIDIA ( NVDA ) dépasse les GPU haute performance, se concentre sur l'innovation de l'architecture réseau entre les centres de données, établissant de nouvelles normes pour les usines d'IA. Dans une structure de calcul distribué, le réseau est considéré comme un système d'exploitation pour améliorer les performances et l'efficacité énergétique.
Le vice-président senior du département marketing de NVIDIA, Gilad Shainer, a souligné lors d'une récente interview : “Les charges de travail AI sont essentiellement distribuées, nécessitant une coordination réseau précise pour faire fonctionner des milliers d'accélérateurs comme un seul moteur de calcul.” Une structure permettant de transmettre les mêmes données à chaque GPU sans délai et à la même vitesse doit être mise en place pour optimiser la vitesse de calcul globale.
Dans cette structure de traitement distribué, le réseau n'est plus un simple moyen de connexion, mais joue un rôle en tant que système d'exploitation substantiel (OS). Shaina a déclaré que ce n'est pas seulement des ASIC dédiés aux GPU individuels ( circuits intégrés dédiés ), mais aussi la conception de réseaux qui intègre de manière organique ces accélérateurs, qui est devenue le facteur le plus important déterminant les performances des usines d'IA.
NVIDIA ne se contente pas de considérer la performance, mais intègre également l'efficacité énergétique dans ses réflexions, en adoptant une méthode de conception collaborative (Co-design) pour une conception réseau complète à travers le matériel, le logiciel et les cadres. Lorsque tous les éléments de calcul, du cadre du modèle à la connexion physique, sont conçus de manière globale, cela permet de maximiser la vitesse de traitement des jetons, l'efficacité d'exécution et la prévisibilité. Shayna a souligné ce point.
En particulier, la conception à haute densité est l'avantage différentiel de NVIDIA. Bien que les centres de données traditionnels aient tendance à éviter une trop grande densité, NVIDIA a adopté une stratégie différente : disposer des GPU ASIC haute performance de manière compacte dans les racks, réalisant ainsi les deux objectifs d'évolutivité et d'efficacité énergétique grâce à des connexions en cuivre à faible consommation. Lors de l'expansion à grande échelle, l'application de 'Spectrum-X Ethernet Photonics ( Spectrum-X Ethernet Photonics )' ou de 'Quantum-X InfiniBand' et d'autres technologies d'optique co-emballées ( Co-packaged Optics ) permet de réduire encore l'énergie consommée par le mouvement des données.
Cette stratégie va au-delà d'une simple mise à niveau matérielle, illustrant clairement l'ambition de NVIDIA de réaliser un nouveau paradigme 'centre de données hyper grandes tailles = superordinateur' à l'ère du calcul centralisé en IA. Le pouvoir d'infrastructure des usines d'IA passe de 'capacité de fabrication de GPU' à 'capacité de transformer l'ensemble du centre de données en unités de calcul organiques'. La prochaine étape de l'engouement pour l'IA semble commencer avec cette architecture de calcul dominée par le réseau.