游侠网云服务,免实名免备案服务器 游侠云域名,免实名免备案域名

统一声明:

1.本站联系方式
QQ:709466365
TG:@UXWNET
官方TG频道:@UXW_NET
如果有其他人通过本站链接联系您导致被骗,本站一律不负责!

2.需要付费搭建请联系站长QQ:709466365 TG:@UXWNET
3.免实名域名注册购买- 游侠云域名
4.免实名国外服务器购买- 游侠网云服务

阿里云通义千问团队宣布,开源模型家族迎来新成员——Qwen3.6-27B。这是一款拥有270亿参数的稠密多模态模型,在保持稠密架构优势的同时,全面提升了智能体编程与多模态推理能力。

270亿参数超越397亿MoE模型

作为稠密架构,Qwen3.6-27B无需MoE路由即可部署,是开发者在实用、可广泛部署规模上获取顶尖编程能力的理想选择。在自然语言与编程基准测试中,Qwen3.6-27B仅凭270亿参数,就在所有主要编程基准上全面超越了参数量高达其15倍的Qwen3.5-397B-A17B

编程基准测试成绩

  • SWE-bench Verified:77.2分(前代76.2)
  • SWE-bench Pro:53.5分(前代50.9)
  • Terminal-Bench 2.0:59.3分(前代52.5)
  • SkillsBench:48.2分(前代30.0)

推理与多模态能力

在推理任务上,Qwen3.6-27B在GPQA Diamond上取得了87.8分,可与数倍于其规模的模型相媲美。视觉语言方面,该模型原生支持多模态,能够处理图像、视频与文本的混合输入,支持视觉推理、文档理解和视觉问答等任务。

广泛集成与部署

Qwen3.6-27B的开源权重已在Hugging Face和ModelScope平台上提供,开发者可下载进行本地部署。该模型还可以无缝集成到流行的第三方编程助手中,包括OpenClaw、Claude Code和Qwen Code,从而简化开发流程,实现高效且具备上下文感知能力的编码体验。

阿里云百炼平台即将支持通过API调用该模型,并保留”preserve_thinking”功能,可在消息中保留所有前序轮次的思维内容,官方推荐用于智能体任务。


📌 本文来源:IT之家 / 新浪科技
🔗 原文链接:点击查看原文全文