Qwen3.6-27B открытая публикация «Openclaw, Hermes предпочтительнее»: Производительность ИИ сравнима с Claude Opus 4.5, стоимость сокращена в 14 раз

АлиБаба Qwen серии (Qwen) последних флагманов Qwen3.6-27B официально открыты исходники 22 апреля 2026 года вечером. Эта модель с 27B плотных параметров в Terminal-Bench 2.0 набрала 59.3 балла, сравнявшись с Claude 4.5 Opus, и при этом использует менее 1/14 количества параметров, показывая результат 77.2 в SWE-bench Verified, превзойдя предыдущий флагман 397B MoE с 76.2. Полная модель занимает 55.6 ГБ, а при квантовании Q4_K_M — всего 16.8 ГБ, что позволяет запускать на потребительском оборудовании, впервые давая локальным агентам вроде OpenClaw, Hermes Agent полноценный локальный мозг.
(Предыстория: по инициативе Anthropic заблокированы, OpenClaw советует пользователям перейти на API-ключ или выбрать альтернативы Qwen, Kimi и др.)
(Дополнительный фон: Почему США требуют «цензуры» и держат AI в лабораториях? А Китай полностью отказывается от открытых моделей — почему?)

Содержание статьи

Переключить

  • Результаты бенчмарков: три самых ярких вывода
  • Технические характеристики: эффективность сотен миллиардов на потребительском оборудовании
  • Почему именно OpenClaw и Hermes Agent — локальный мозг?
  • Открытое vs закрытое: стратегия Alibaba и геополитическая картина

22 апреля 2026 года вечером команда Alibaba Qwen тихо выпустила на Hugging Face бомбу: Qwen3.6-27B официально открыты исходники, лицензия Apache 2.0, любой может свободно коммерчески использовать. Числа кажутся обычными, но за ними скрывается необычное значение — архитектура 27B dense (не MoE), впервые в тестах агентских задач достигла уровня закрытого флагмана Anthropic Claude 4.5 Opus, при этом объем модели всего 55.6 ГБ, что превосходит предыдущий 397B MoE, для которого требовалось 807 ГБ видеопамяти. Локальный запуск, агент работает, потребительское оборудование — все три условия выполнены для Qwen3.6-27B.

Результаты бенчмарков: три самых ярких вывода

Команда Qwen выбрала 10 тестов, отражающих реальные возможности программирования агентских задач, результаты Qwen3.6-27B:

Benchmark
Qwen3.6-27B
Qwen3.5-27B
Qwen3.6-35B-A3B
Qwen3.5-397B-A17B
Claude 4.5 Opus
SWE-bench Verified
77.2
75.0
73.4
76.2
80.9
SWE-bench Pro
53.5
51.2
49.5
50.9
57.1
SWE-bench Multilingual
71.3
69.3
67.2
69.3
77.5
Terminal-Bench 2.0
59.3
41.6
51.5
52.5
59.3
SkillsBench Avg5
48.2
27.2
28.7
30.0
45.3
QwenWebBench
1487
1068
1397
1186
1536
NL2Repo
36.2
27.3
29.4
32.2
43.2
Claw-Eval Avg
72.4
64.3
68.7
70.7
76.6
Claw-Eval Pass^3
60.6
46.2
50.0
48.1
59.6
QwenClawBench
53.4
52.2
52.6
51.8
52.3

Три ключевых вывода: Первое — Terminal-Bench 2.0 59.3 против Claude 4.5 Opus — впервые плотная модель 27B достигла уровня закрытого флагмана в агентских задачах, а версия Qwen3.5-27B имела всего 41.6, что на 17.7 баллов меньше. Второе — SWE-bench Verified 77.2 превзошел Qwen3.5-397B-A17B с 76.2 — плотная модель 27B побеждает предыдущий 397B MoE, объем модели уменьшился с 807 ГБ до 55.6 ГБ, более чем в 14 раз. Третье — SkillsBench вырос с 27.2 до 48.2 (+77%), а Claw-Eval Pass^3 — с 59.6 превзошел Claude 4.5 Opus с 59.6 — многократное и многошаговое согласование — главный апгрейд, показывающий, что модель при выполнении сложных задач не так легко сбивается или отклоняется.

В области знаний и рассуждений тоже впечатляющие показатели: MMLU-Pro 86.2, MMLU-Redux 93.5, GPQA Diamond 87.8, AIME 2026 94.1, LiveCodeBench v6 83.9 — все превосходит предшественников с аналогичным числом параметров.

Технические характеристики: эффективность сотен миллиардов на потребительском оборудовании

Qwen3.6-27B — чисто dense архитектура, 27B параметров — не MoE, а реальные параметры, активируемые при каждом выводе. Изначальная длина контекста — 262 144 токенов, с расширением YaRN максимум до 1 010 000 токенов (около 1 миллиона), что важно для анализа длинных файлов или понимания через несколько репозиториев. Полностью точная модель занимает 55.6 ГБ, при квантовании Q4_K_M — всего 16.8 ГБ, что позволяет запускать на Mac M серии с 24 ГБ видеопамяти или на потребительских GPU. Лицензия — Apache 2.0, коммерческое использование бесплатно. Рекомендуемые версии SGLang ≥0.5.10 или vLLM ≥0.19.0, поддержка KTransformers и HF Transformers. Также Qwen3.6-27B включает vision encoder, поддерживая обработку изображений, видео и текста, а не только текстовые задачи.

Почему именно OpenClaw и Hermes Agent — локальный мозг?

Изначально упомянуты два агентских фреймворка: OpenClaw и Hermes Agent. OpenClaw — популярное локальное агентское приложение, похожее на Claude Code, — в апреле этого года было заблокировано Anthropic — по причине нарушения условий сервиса. После этого официальные рекомендации — перейти на API-ключ или выбрать альтернативы Qwen, Kimi и др. В открытом исходнике Qwen3.6-27B четко реализована эта стратегия: работает локально, показывает уровень Claude, лицензия Apache 2.0, можно коммерчески использовать.
Hermes Agent — проект под руководством NousResearch, основанный на цикле «самообучения» — execute, evaluate, extract, refine, retrieve — позволяющем агенту после выполнения задачи автоматически улучшать навыки и сохранять их в памяти, чтобы при повторных задачах использовать. В отличие от OpenClaw, Hermes делает упор на долгосрочную эволюцию и автоматизацию, поддерживая интеграцию с NousPortal, OpenRouter, NVIDIA NIM, LM Studio, Ollama и др. Общая проблема обоих — запуск действительно мощной модели локально. Qwen3.6-27B в Claw-Eval (специальный тест для кодирующих агентов) набрала в среднем 72.4 и 60.6 Pass^3, превзойдя Claude 4.5 Opus, что делает эти фреймворки более привлекательными для локальной реализации.

Открытое vs закрытое: стратегия Alibaba и геополитическая картина

Открытие Qwen3.6-27B — не единичный случай. В апреле было также открыто исходное кодирование Qwen3.6-35B-A3B (MoE, 35B параметров, 3B активных), а открытая модель Qwen3.6-Plus и Qwen3.5-Omni остаются закрытыми, предлагая коммерческое использование через облачные API. Такой подход — стратегия: открывать для построения экосистемы и доверия, закрывать для монетизации флагманов.

На фоне этого меняется глобальный расклад в AI: Meta, по сообщениям, приказала отказаться от «открытого AI» и перейти к платной модели на базе Qwen — это свидетельство того, что американские гиганты сокращают открытое развитие, а китайские компании активно отказываются от открытых моделей. Этот обратный тренд ускоряет формирование новой реальности. Для разработчиков и тех, кто хочет локально запускать AI, выбор становится вопросом: «какая модель достаточно хороша?», — и Qwen3.6-27B — один из наиболее очевидных вариантов на данный момент.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить