Джерело: TokenPost
Оригінальна назва: 엔비디아(NVDA), стає «операційною системою» AI фабрики… веде інновації в мережі дата-центрів
Оригінальне посилання:
NVIDIA ( NVDA ) перевершує високопродуктивні графічні процесори, зосереджуючи увагу на інноваціях архітектури мереж між дата-центрами, встановлюючи нові стандарти для AI-фабрик. У розподілених обчислювальних структурах мережа використовується як операційна система для підвищення продуктивності та енергетичної ефективності.
Старший віце-президент відділу маркетингу Nvidia Гілад Шайнер ( у недавньому інтерв’ю підкреслив: “AI-навантаження за своєю суттю є розподіленими, тому потрібна точна координація мережі, щоб тисячі прискорювачів працювали як один обчислювальний двигун.” Структура, яка дозволяє без затримок передавати однакові дані до кожного GPU з однаковою швидкістю, повинна бути реалізована для оптимізації загальної швидкості обчислень.
У цій розподілій обробній структурі мережа більше не є простим засобом з'єднання, а виступає як суттєва операційна система )OS(. Шайна зазначає, що не тільки окремі GPU, спеціалізовані ASIC ), але й органічна інтеграція цих прискорювачів у мережевий дизайн стала найважливішим фактором, що визначає продуктивність AI фабрики.
NVIDIA не лише враховує продуктивність, але й енергоефективність, застосовуючи підхід до спільного проєктування (Co-design) для комплексного проєктування мережі через апаратне забезпечення, програмне забезпечення та фреймворки. Коли всі обчислювальні елементи, від модельного фреймворку до фізичних з'єднань, проектуються в цілому, можна максимально підвищити швидкість обробки токенів, ефективність виконання та передбачуваність. Шайна підкреслив це.
Особливо висока щільність дизайну є диференційованою перевагою NVIDIA. Хоча традиційні дата-центри схильні уникати надмірної щільності, NVIDIA застосувала іншу стратегію: тісно розмістила високопродуктивні GPU ASIC у стійках, досягаючи подвійної мети масштабованості та енергоефективності за допомогою низькоенергетичних мідних з'єднань. При масштабному розширенні використовуються такі технології, як 'Spectrum-X Ethernet Photonics(' або 'Quantum-X InfiniBand', які далі знижують енергію, споживану під час переміщення даних.
Ця стратегія виходить за межі простого оновлення апаратного забезпечення, чітко демонструючи амбіції NVIDIA в епоху централізованих обчислень AI реалізувати нову парадигму «супер великі дата-центри = суперкомп'ютери». Панування інфраструктури AI-фабрики переходить від «можливостей виробництва GPU» до «можливості перетворення всього дата-центру на органічні обчислювальні одиниці». Наступний етап буму AI, здається, розпочнеться з цієї мережевої домінуючої обчислювальної архітектури.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
NVIDIA ( NVDA ) стала 'операційною системою' фабрики штучного інтелекту: лідерство в інноваціях мережі дата-центрів
Джерело: TokenPost Оригінальна назва: 엔비디아(NVDA), стає «операційною системою» AI фабрики… веде інновації в мережі дата-центрів Оригінальне посилання: NVIDIA ( NVDA ) перевершує високопродуктивні графічні процесори, зосереджуючи увагу на інноваціях архітектури мереж між дата-центрами, встановлюючи нові стандарти для AI-фабрик. У розподілених обчислювальних структурах мережа використовується як операційна система для підвищення продуктивності та енергетичної ефективності.
Старший віце-президент відділу маркетингу Nvidia Гілад Шайнер ( у недавньому інтерв’ю підкреслив: “AI-навантаження за своєю суттю є розподіленими, тому потрібна точна координація мережі, щоб тисячі прискорювачів працювали як один обчислювальний двигун.” Структура, яка дозволяє без затримок передавати однакові дані до кожного GPU з однаковою швидкістю, повинна бути реалізована для оптимізації загальної швидкості обчислень.
У цій розподілій обробній структурі мережа більше не є простим засобом з'єднання, а виступає як суттєва операційна система )OS(. Шайна зазначає, що не тільки окремі GPU, спеціалізовані ASIC ), але й органічна інтеграція цих прискорювачів у мережевий дизайн стала найважливішим фактором, що визначає продуктивність AI фабрики.
NVIDIA не лише враховує продуктивність, але й енергоефективність, застосовуючи підхід до спільного проєктування (Co-design) для комплексного проєктування мережі через апаратне забезпечення, програмне забезпечення та фреймворки. Коли всі обчислювальні елементи, від модельного фреймворку до фізичних з'єднань, проектуються в цілому, можна максимально підвищити швидкість обробки токенів, ефективність виконання та передбачуваність. Шайна підкреслив це.
Особливо висока щільність дизайну є диференційованою перевагою NVIDIA. Хоча традиційні дата-центри схильні уникати надмірної щільності, NVIDIA застосувала іншу стратегію: тісно розмістила високопродуктивні GPU ASIC у стійках, досягаючи подвійної мети масштабованості та енергоефективності за допомогою низькоенергетичних мідних з'єднань. При масштабному розширенні використовуються такі технології, як 'Spectrum-X Ethernet Photonics(' або 'Quantum-X InfiniBand', які далі знижують енергію, споживану під час переміщення даних.
Ця стратегія виходить за межі простого оновлення апаратного забезпечення, чітко демонструючи амбіції NVIDIA в епоху централізованих обчислень AI реалізувати нову парадигму «супер великі дата-центри = суперкомп'ютери». Панування інфраструктури AI-фабрики переходить від «можливостей виробництва GPU» до «можливості перетворення всього дата-центру на органічні обчислювальні одиниці». Наступний етап буму AI, здається, розпочнеться з цієї мережевої домінуючої обчислювальної архітектури.