Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Qwen3.6-27B відкритий вихід у світ «Openclaw, Hermes — перший вибір»: показники ШІ зрівнялися з Claude Opus 4.5, витрати зменшилися в 14 разів
Алібаба Qwen серії (Qwen) остання флагманська модель Qwen3.6-27B офіційно стала відкритою 22 квітня 2026 року ввечері. Ця модель з 27B щільних параметрів у Terminal-Bench 2.0 набрала 59.3 балів, обійшовши Claude 4.5 Opus з 59.3, і при цьому з меншим ніж 1/14 кількістю параметрів, у SWE-bench Verified показала 77.2, перевищивши попереднього покоління 397B MoE флагмана з 76.2. Повна модель має 55.6 ГБ, а з кількісним стисненням Q4_K_M — 16.8 ГБ, що дозволяє запускати її на споживчому обладнанні, роблячи першим у світі локальним ядром для таких агентських фреймворків, як OpenClaw, Hermes Agent тощо.
(Передісторія: через заборону Anthropic, OpenClaw рекомендує користувачам перейти на API-ключ або використовувати альтернативи Qwen, Kimi тощо.)
(Додатковий контекст: США вимагають «цензуру» для AI у лабораторіях! Чому Китай повністю відмовляється від відкритих моделей?)
Зміст статті
Перемикач
22 квітня 2026 року ввечері команда Alibaba Qwen тихо опублікувала на Hugging Face «бомбу»: Qwen3.6-27B офіційно стала відкритою, під ліцензією Apache 2.0, будь-хто може вільно комерційно використовувати. Зовні цифри здаються звичайними, але за цим криється неабиякий сенс — модель з 27B щільних параметрів (не MoE), вперше у тестах агентів на терміналі досягла рівня закритого флагмана Anthropic Claude 4.5 Opus, і при цьому з розміром 55.6 ГБ обійшла попереднього покоління 397B MoE, для якого потрібно було 807 ГБ відеопам’яті для повноцінної роботи. Локальне розгортання, здатність агентів працювати, споживчий рівень обладнання — всі три умови виконані для Qwen3.6-27B.
Результати бенчмарків: три найяскравіші висновки
Команда Qwen обрала 10 тестів, що відображають реальні можливості програмування агентів, результати Qwen3.6-27B такі:
Три ключові висновки окремо: по-перше, Terminal-Bench 2.0 59.3 — Claude 4.5 Opus — це перший раз, коли модель з 27B щільних параметрів у терміналі досягла рівня закритого флагмана Anthropic, тоді як попередня версія Qwen3.5-27B мала лише 41.6, тобто приріст 17.7 балів. по-друге, SWE-bench Verified 77.2 перевищує 76.2 у Qwen3.5-397B-A17B — модель з 27B знищила попереднього покоління 397B MoE флагмана, зменшивши розмір з 807 ГБ до 55.6 ГБ, більш ніж у 14 разів. по-третє, SkillsBench зросла з 27.2 до 48.2 (+77%), а Pass^3 у Claw-Eval — 60.6 проти 59.6 Claude 4.5 Opus — багатократна та багатоступенева узгодженість стала найбільшим оновленням, що свідчить про здатність моделі виконувати складні агентські завдання без частих збоїв або відхилень.
У сфері знань і логіки також високі показники: MMLU-Pro 86.2, MMLU-Redux 93.5, GPQA Diamond 87.8, AIME 2026 94.1, LiveCodeBench v6 83.9, що повністю перевищує попередні моделі з аналогічною кількістю параметрів.
Технічні характеристики: ефективність у 100 мільярдів параметрів для споживчого обладнання
Qwen3.6-27B — це чисто щільна архітектура, 27B параметрів — не MoE, а реальні активні параметри, що активуються під час кожного запуску. Початкова довжина контексту — 262 144 токенів, з розширенням за допомогою YaRN до максимуму 1 010 000 токенів (близько 1 мільйона), що є необхідним для аналізу довгих файлів або розуміння міждокументних зв’язків у кодових агентів. Повна модель у точності — 55.6 ГБ, з кількісним стисненням Q4_K_M — до 16.8 ГБ, що дозволяє запускати її на Mac з 24 ГБ відеопам’яті або споживчих GPU. Ліцензія — Apache 2.0, без додаткових платежів для комерційного використання. Рекомендується розгортання з SGLang ≥0.5.10 або vLLM ≥0.19.0, підтримуються KTransformers і HF Transformers. Крім того, Qwen3.6-27B має вбудований візуальний енкодер, що підтримує обробку зображень, відео та тексту, а не є чисто текстовою моделлю.
Чому саме OpenClaw і Hermes Agent — локальні «мозки»?
Перший швидкий огляд згадує два агентські фреймворки: OpenClaw і Hermes Agent. OpenClaw — популярний локальний агент, схожий на Claude Code, — у квітні цього року був заборонений Anthropic. Після обмежень через порушення правил сервісу, офіційно рекомендується перейти на API-ключ або використовувати альтернативи Qwen, Kimi тощо. Відкритий код Qwen3.6-27B ідеально відповідає цій стратегії: працює локально, досягає рівня Claude у бенчмарках, ліцензія Apache 2.0 — безкоштовно для комерції, і все це — у одній моделі.
Hermes Agent — це відкритий фреймворк від NousResearch, що робить акцент на «самонавчанні навичок» через цикл: execute, evaluate, extract, refine, retrieve. Це дозволяє агенту автоматично вдосконалювати свої навички та зберігати їх у пам’яті для майбутніх завдань. На відміну від OpenClaw, Hermes орієнтований на довгострокову еволюцію та підтримує інтеграцію з різними бекендами, такими як NousPortal, OpenRouter, NVIDIA NIM, LM Studio, Ollama. Обидва фреймворки стикаються з однією проблемою: запускати на локальній машині справді потужну модель. Qwen3.6-27B у Claw-Eval (спеціально для оцінки кодових агентів) отримала середній бал 72.4 і Pass^3 — 60.6, перевищуючи Claude 4.5 Opus, пропонуючи цим двом фреймворкам серйозний локальний варіант.
Відкритий код vs закритий: стратегія Alibaba та геополітичний контекст
Відкриття Qwen3.6-27B — не ізольована подія. Раніше у квітні Alibaba відкрила модель Qwen3.6-35B-A3B (MoE, 35B параметрів, 3B активних), а тепер — модель з 27B щільних параметрів, що доповнює «можна повністю розгорнути локально без MoE». Водночас Qwen3.6-Plus і Qwen3.5-Omni залишаються закритими і пропонуються через API для комерційного використання. Один відкритий, інший — закритий, стратегія Alibaba чітка: відкритий код для створення екосистеми і довіри, закриті флагмани — для монетизації.
Глибший контекст — це зміна у глобальній конкуренції AI між Китаєм і США. Згідно з повідомленнями, Meta нібито відмовилася від «відкритого AI», натомість підтримує Alibaba Qwen для комерційної розробки AI під назвою Avocado. США зменшують відкритий код, Китай активно відмовляється від відкритих моделей — цей зсув швидко закріплюється. Для розробників і тих, хто прагне локального розгортання, питання «чи відкривати модель» поступово змінюється на «яка модель є достатньо потужною». Qwen3.6-27B — один із найчіткіших відповідей на цю актуальну потребу.