Qwen3.6-27B lançamento de código aberto "Openclaw, Hermes preferidos": desempenho de IA iguala Claude Opus 4.5, custo reduzido em 14 vezes

A série Qwen de Alibaba (Qwen) mais recente, Qwen3.6-27B, foi oficialmente open source na noite de 22 de abril de 2026. Este modelo denso de 27B foi avaliado no Terminal-Bench 2.0 com uma pontuação de 59.3, superando Claude 4.5 Opus, e com menos de 1/14 do número de parâmetros, na SWE-bench Verified obteve 77.2, superando a geração anterior de 397B MoE, que tinha 76.2. O modelo completo, de 55.6 GB, com quantização Q4_K_M reduzida para 16.8 GB, pode rodar em hardware de consumo, permitindo que frameworks de agentes locais como OpenClaw e Hermes Agent tenham, pela primeira vez, um cérebro local realmente utilizável.
(Prévia: sendo banido pela Anthropic, OpenClaw recomenda aos usuários usar API Key ou trocar para Qwen, Kimi e outros substitutos)
(Complemento: por que os EUA precisam de “censura” e confinamento em laboratórios para IA? Enquanto a China aposta fortemente em modelos de código aberto, por quê?)

Índice do artigo

Alternar

  • Resultados de Benchmark: três conclusões mais impressionantes
  • Especificações: desempenho de centenas de bilhões de parâmetros em hardware de consumo
  • Por que o cérebro local do OpenClaw e Hermes Agent é importante?
  • Código aberto vs fechado: a estratégia da Alibaba e o cenário geopolítico

Na noite de 22 de abril de 2026, a equipe Qwen da Alibaba silenciosamente lançou uma bomba no Hugging Face: Qwen3.6-27B foi oficialmente open source, sob licença Apache 2.0, permitindo uso comercial livre. Os números parecem comuns, mas seu significado é extraordinário — a arquitetura densa de 27B (não MoE), pela primeira vez, igualou o desempenho do agente terminal ao flagship fechado da Anthropic, Claude 4.5 Opus, e com apenas 55.6 GB de tamanho, derrotou a geração anterior de 397B MoE, que exigia 807 GB de memória de vídeo para rodar completamente. Implantação local, agentes funcionais, hardware de consumo — Qwen3.6-27B atende a todos esses critérios.

Resultados de Benchmark: três conclusões mais impressionantes

A equipe Qwen escolheu 10 testes que refletem a capacidade real de programação de agentes, e os resultados de Qwen3.6-27B são os seguintes:

Benchmark
Qwen3.6-27B
Qwen3.5-27B
Qwen3.6-35B-A3B
Qwen3.5-397B-A17B
Claude 4.5 Opus
SWE-bench Verified
77.2
75.0
73.4
76.2
80.9
SWE-bench Pro
53.5
51.2
49.5
50.9
57.1
SWE-bench Multilingual
71.3
69.3
67.2
69.3
77.5
Terminal-Bench 2.0
59.3
41.6
51.5
52.5
59.3
SkillsBench Avg5
48.2
27.2
28.7
30.0
45.3
QwenWebBench
1487
1068
1397
1186
1536
NL2Repo
36.2
27.3
29.4
32.2
43.2
Claw-Eval Avg
72.4
64.3
68.7
70.7
76.6
Claw-Eval Pass^3
60.6
46.2
50.0
48.1
59.6
QwenClawBench
53.4
52.2
52.6
51.8
52.3

Três conclusões principais merecem destaque: Primeiro, Terminal-Bench 2.0 59.3 iguala Claude 4.5 Opus — esta é a primeira vez que um modelo denso de 27B alcança o mesmo desempenho do flagship fechado da Anthropic em tarefas de agente terminal, enquanto a versão anterior de Qwen3.5-27B tinha apenas 41.6, uma melhora de 17.7 pontos. Segundo, SWE-bench Verified 77.2 supera Qwen3.5-397B-A17B, com 76.2 — o modelo denso de 27B supera o flagship anterior de 397B MoE, com tamanho de arquivo reduzido de 807 GB para 55.6 GB, uma redução de mais de 14 vezes. Terceiro, SkillsBench de 27.2 sobe para 48.2 (+77%) e Claw-Eval Pass^3 atinge 60.6, superando Claude 4.5 Opus com 59.6 — a maior melhoria foi na consistência em múltiplas rodadas e passos, indicando que o modelo consegue executar tarefas complexas de agente sem falhas ou desvios frequentes.

No campo de conhecimento e raciocínio, também impressiona: MMLU-Pro 86.2, MMLU-Redux 93.5, GPQA Diamond 87.8, AIME 2026 94.1, LiveCodeBench v6 83.9, todos superando as gerações anteriores com a mesma quantidade de parâmetros.

Especificações: desempenho de centenas de bilhões de parâmetros em hardware de consumo

Qwen3.6-27B é uma arquitetura totalmente densa, com 27B de parâmetros, não MoE, sendo os parâmetros ativos que ativam a cada inferência, não apenas uma média. O comprimento de contexto nativo é 262.144 tokens, podendo ser expandido até 1.010.000 tokens (cerca de 1 milhão) com o plugin YaRN, ideal para análise de arquivos longos ou compreensão de múltiplos repositórios. O modelo de precisão total tem 55.6 GB, e com quantização Q4_K_M, seu tamanho é reduzido para 16.8 GB, podendo ser carregado diretamente em Macs com 24 GB de VRAM ou GPUs de consumo. Licenciado sob Apache 2.0, uso comercial é livre de taxas adicionais. Recomenda-se SGLang ≥0.5.10 ou vLLM ≥0.19.0 para implantação, além de suporte a KTransformers e HF Transformers. Além disso, Qwen3.6-27B integra um codificador de visão, suportando simultaneamente compreensão de imagens, textos e vídeos, não sendo um modelo puramente textual.

Por que o cérebro local do OpenClaw e Hermes Agent é importante?

O comunicado original destacou dois frameworks de agentes: OpenClaw e Hermes Agent. OpenClaw, popular entre desenvolvedores, é um agente local semelhante ao Claude Code, que foi banido pela Anthropic em abril — após a Anthropic limitar contas por violação de termos, a equipe OpenClaw recomendou usar API Key ou migrar para modelos locais como Qwen e Kimi. A abertura de Qwen3.6-27B atende exatamente a essa necessidade de alternativa: rodar localmente, alcançar desempenho semelhante ao de Claude, sob licença Apache 2.0, e uso comercial gratuito.

Hermes Agent, liderado pela NousResearch, é um framework de agente open source que enfatiza um ciclo de autoaprendizado de habilidades — executar, avaliar, extrair, refinar, recuperar — permitindo que o agente aprenda e armazene técnicas na memória, para uso futuro. Em contraste com o OpenClaw, mais intuitivo, Hermes foca na evolução autônoma de longo prazo, suportando integrações com NousPortal, OpenRouter, NVIDIA NIM, LM Studio, Ollama, entre outros. O desafio comum é rodar um modelo realmente potente localmente. Qwen3.6-27B, com uma pontuação média de 72.4 no Claw-Eval e 60.6 no Pass^3, oferece uma opção viável para esses frameworks, rivalizando com Claude 4.5 Opus.

Código aberto vs fechado: a estratégia da Alibaba e o cenário geopolítico

A abertura de Qwen3.6-27B não é um evento isolado. Em 16 de abril, a Alibaba também open sourceou Qwen3.6-35B-A3B (arquitetura MoE, 35B de parâmetros, 3B ativos). A abertura do modelo denso de 27B complementa a estratégia de permitir implantação local completa, sem fragmentação MoE; enquanto Qwen3.6-Plus e Qwen3.5-Omni permanecem fechados, comercializados via API na nuvem. Uma estratégia de abrir para construir ecossistema e confiança, e fechar para monetizar flagships.

No cenário mais amplo, essa mudança reflete a reversão na corrida de código aberto em IA entre China e EUA. Relatórios recentes indicam que o Meta de Zuckerberg abandonou a estratégia de “open source IA” e passou a usar o Qwen da Alibaba para treinar a IA paga Avocado — enquanto gigantes americanos reduzem o open source, os fabricantes chineses apostam na abertura total. Essa dinâmica de reversão está se consolidando rapidamente. Para desenvolvedores e quem precisa de implantação local, a questão deixou de ser “devo ou não abrir o código” e passou a ser “qual modelo open source é suficiente”. Qwen3.6-27B oferece uma resposta bastante clara neste momento.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar