MiniMax M2.7 представляет AI-модель с 230 миллиардами параметров для инфраструктуры NVIDIA

robot
Генерация тезисов в процессе

Тед Хисокава

12 апреля 2026 г., 01:37

MiniMax выпускает M2.7, модель с 230 миллиардами параметров, основанную на смеси экспертов, оптимизированную для GPU NVIDIA с увеличением пропускной способности до 2,7 раз на оборудовании Blackwell.

MiniMax выпустила M2.7, модель ИИ с 230 миллиардами открытых весов, разработанную специально для рабочих процессов автономных агентов, теперь доступную в экосистеме вывода NVIDIA, включая последние графические процессоры Blackwell Ultra.

Модель представляет собой значительный шаг в повышении эффективности корпоративного ИИ. Несмотря на свои огромные 230 миллиардов параметров, M2.7 активирует только 10 миллиардов параметров на токен — при этом достигается коэффициент активации 4,3% благодаря архитектуре смеси экспертов (MoE) с 256 локальными экспертами. Это позволяет держать затраты на вывод в пределах разумного, сохраняя при этом вычислительные возможности гораздо более крупной модели.

Производительность на Blackwell

NVIDIA сотрудничала с сообществами с открытым исходным кодом для оптимизации M2.7 под производственные нагрузки. Два ключевых улучшения — объединённый ядро QK RMS Norm и интеграция FP8 MoE из TensorRT-LLM — обеспечили значительные повышения пропускной способности на графических процессорах Blackwell Ultra.

Тестирование на наборе данных с длиной последовательности 1K/1K показало, что vLLM достигла увеличения пропускной способности до 2,5 раза, а SGLang — до 2,7 раза. Обе оптимизации были реализованы за один месяц, что говорит о наличии дальнейших резервов для повышения производительности.

Техническая архитектура

M2.7 поддерживает длину входного контекста до 200 тысяч с 62 слоями, используя мультихедовую причинную самовнимательность с вращающимися позиционными встраиваниями (RoPE). Механизм маршрутизации экспертов top-k активирует только 8 из 256 экспертов для каждого входа, что позволяет модели сохранять низкие затраты на вывод несмотря на масштаб.

Архитектура ориентирована на решение задач кодирования и сложных агентных сценариев — рабочих процессов, где системы ИИ должны планировать, выполнять и итеративно совершенствоваться самостоятельно, а не реагировать на отдельные подсказки.

Варианты развертывания

Разработчики могут получить доступ к M2.7 через несколько каналов. Стек NVIDIA NemoClaw предоставляет однокнопочное развертывание для запуска автономных агентов с использованием среды OpenShell. Модель также доступна через контейнеры NVIDIA NIM для локальных, облачных или гибридных развертываний.

Для команд, желающих настроить модель под свои нужды, библиотека NeMo AutoModel поддерживает донастройку с помощью опубликованных рецептов. Рабочие процессы обучения с подкреплением доступны через NeMo RL с примерными конфигурациями для последовательностей длиной 8K и 16K.

Бесплатные GPU-ускоренные конечные точки на build.nvidia.com позволяют протестировать модель перед развертыванием. Открытые веса также доступны на Hugging Face для самостоятельного размещения.

Данный релиз позиционирует MiniMax как достойную альтернативу закрытым моделям от OpenAI и Anthropic для предприятий, создающих автономные системы ИИ, особенно те, что уже инвестировали в инфраструктуру NVIDIA.

Источник изображения: Shutterstock

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить