Источник: TokenPost
Оригинальное название: 엔비디아(NVDA), становится 'операционной системой' AI фабрики… ведет инновации в сетях дата-центров.
Оригинальная ссылка:
NVIDIA ( NVDA ) превосходит высокопроизводительные GPU, сосредоточив внимание на инновациях в сетевой архитектуре центров обработки данных, устанавливая новые стандарты для фабрик ИИ. В распределенной вычислительной структуре сеть используется как операционная система для повышения производительности и энергоэффективности.
Старший вице-президент по маркетингу NVIDIA Гилад Шайнер ( в недавнем интервью подчеркнул: “AI-рабочие нагрузки по своей сути распределенные, поэтому требуется точная координация сети, чтобы тысячи ускорителей работали как один вычислительный двигатель.” Структура, которая должна обеспечивать беззадержку передачи одинаковых данных каждому GPU с одинаковой скоростью, должна быть реализована для оптимизации общей скорости вычислений.
В этой распределенной структуре обработки сеть больше не является простым средством соединения, а играет роль реальной операционной системы )OS(. Шайна утверждает, что не только специальные ASIC для отдельных GPU ), но и органическая интеграция дизайна сети этих ускорителей стала самым важным фактором, определяющим производительность AI-фабрики.
NVIDIA рассматривает не только производительность, но и эффективность использования электроэнергии, применяя метод совместного проектирования (Co-design) для комплексного проектирования сети, охватывающего как аппаратное, так и программное обеспечение и фреймы. Только при условии комплексного проектирования всех вычислительных элементов, от модели фрейма до физических соединений, можно максимизировать скорость обработки токенов, эффективность выполнения и предсказуемость. Шайна подчеркнул это.
Особенно высокая плотность дизайна является дифференцированным преимуществом NVIDIA. Хотя традиционные центры обработки данных склонны избегать чрезмерной плотности, NVIDIA приняла другую стратегию: плотно размещая высокопроизводительные GPU ASIC в стойках, достигая двойной цели масштабируемости и энергоэффективности с помощью низкопотребляющих медных соединений. При масштабировании в больших масштабах применяются технологии совместной упаковки оптики, такие как 'Spectrum-X Ethernet Photonics(' или 'Quantum-X InfiniBand', которые进一步 снижают потребление энергии при перемещении данных.
Эта стратегия выходит за рамки простой модернизации оборудования и ясно демонстрирует амбиции NVIDIA по реализации нового парадигмы 'супер大型数据中心 = суперкомпьютер' в эпоху централизованных вычислений AI. Господство инфраструктуры AI-фабрик переходит от 'производственных мощностей GPU' к 'способности превращать весь дата-центр в органичное вычислительное единицу'. Следующий этап AI-революции, похоже, начнется с такой сетевой вычислительной архитектуры.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
NVIDIA ( NVDA ) становится "операционной системой" фабрики ИИ: доминирование в инновациях сетей дата-центров
Источник: TokenPost Оригинальное название: 엔비디아(NVDA), становится 'операционной системой' AI фабрики… ведет инновации в сетях дата-центров. Оригинальная ссылка: NVIDIA ( NVDA ) превосходит высокопроизводительные GPU, сосредоточив внимание на инновациях в сетевой архитектуре центров обработки данных, устанавливая новые стандарты для фабрик ИИ. В распределенной вычислительной структуре сеть используется как операционная система для повышения производительности и энергоэффективности.
Старший вице-президент по маркетингу NVIDIA Гилад Шайнер ( в недавнем интервью подчеркнул: “AI-рабочие нагрузки по своей сути распределенные, поэтому требуется точная координация сети, чтобы тысячи ускорителей работали как один вычислительный двигатель.” Структура, которая должна обеспечивать беззадержку передачи одинаковых данных каждому GPU с одинаковой скоростью, должна быть реализована для оптимизации общей скорости вычислений.
В этой распределенной структуре обработки сеть больше не является простым средством соединения, а играет роль реальной операционной системы )OS(. Шайна утверждает, что не только специальные ASIC для отдельных GPU ), но и органическая интеграция дизайна сети этих ускорителей стала самым важным фактором, определяющим производительность AI-фабрики.
NVIDIA рассматривает не только производительность, но и эффективность использования электроэнергии, применяя метод совместного проектирования (Co-design) для комплексного проектирования сети, охватывающего как аппаратное, так и программное обеспечение и фреймы. Только при условии комплексного проектирования всех вычислительных элементов, от модели фрейма до физических соединений, можно максимизировать скорость обработки токенов, эффективность выполнения и предсказуемость. Шайна подчеркнул это.
Особенно высокая плотность дизайна является дифференцированным преимуществом NVIDIA. Хотя традиционные центры обработки данных склонны избегать чрезмерной плотности, NVIDIA приняла другую стратегию: плотно размещая высокопроизводительные GPU ASIC в стойках, достигая двойной цели масштабируемости и энергоэффективности с помощью низкопотребляющих медных соединений. При масштабировании в больших масштабах применяются технологии совместной упаковки оптики, такие как 'Spectrum-X Ethernet Photonics(' или 'Quantum-X InfiniBand', которые进一步 снижают потребление энергии при перемещении данных.
Эта стратегия выходит за рамки простой модернизации оборудования и ясно демонстрирует амбиции NVIDIA по реализации нового парадигмы 'супер大型数据中心 = суперкомпьютер' в эпоху централизованных вычислений AI. Господство инфраструктуры AI-фабрик переходит от 'производственных мощностей GPU' к 'способности превращать весь дата-центр в органичное вычислительное единицу'. Следующий этап AI-революции, похоже, начнется с такой сетевой вычислительной архитектуры.