Qwen 上线 Qwen3.6-27B,27B 开源模型继续压向代码代理
Qwen 已上线 Qwen3.6-27B。按官方模型卡,它是一款带视觉编码器的 27B 参数模型,采用 Apache 2.0 许可证,兼容 Transformers、vLLM、SGLang 等主流推理框架,原生上下文长度为 262,144 tokens,并标注可扩展到 1,010,000 tokens
这代模型的主轴仍然是更贴近真实开发流程。官方将核心改进概括为 agentic coding 和 thinking preservation,前者覆盖前端工作流与仓库级推理,后者用于在多轮交互里保留历史推理上下文,以减少反复迭代时的额外开销。Qwen 官方 GitHub 仓库也把 Qwen3.6 的整体方向概括为 stability 和 real-world utility。
Qwen3.6-27B 相比 Qwen3.5-27B 在代码与代理任务上提升明显,例如 SWE-bench Verified 从 75.0 提升到 77.2,Terminal-Bench 2.0 从 41.6 提升到 59.3,SkillsBench Avg5 从 27.2 提升到 48.2;在综合推理和多模态任务上,它给出的分数包括 AIME 2026 的 94.1、MMMU 的 82.9,以及 AndroidWorld 的 70.3。整体看,这是一款继续把长上下文、工具使用和代码代理做实的 27B 档开源模型。
拥抱脸
Qwen 已上线 Qwen3.6-27B。按官方模型卡,它是一款带视觉编码器的 27B 参数模型,采用 Apache 2.0 许可证,兼容 Transformers、vLLM、SGLang 等主流推理框架,原生上下文长度为 262,144 tokens,并标注可扩展到 1,010,000 tokens
这代模型的主轴仍然是更贴近真实开发流程。官方将核心改进概括为 agentic coding 和 thinking preservation,前者覆盖前端工作流与仓库级推理,后者用于在多轮交互里保留历史推理上下文,以减少反复迭代时的额外开销。Qwen 官方 GitHub 仓库也把 Qwen3.6 的整体方向概括为 stability 和 real-world utility。
Qwen3.6-27B 相比 Qwen3.5-27B 在代码与代理任务上提升明显,例如 SWE-bench Verified 从 75.0 提升到 77.2,Terminal-Bench 2.0 从 41.6 提升到 59.3,SkillsBench Avg5 从 27.2 提升到 48.2;在综合推理和多模态任务上,它给出的分数包括 AIME 2026 的 94.1、MMMU 的 82.9,以及 AndroidWorld 的 70.3。整体看,这是一款继续把长上下文、工具使用和代码代理做实的 27B 档开源模型。