1. 阿里通义实验室开源Qwen3.6-35B-A3B:MoE架构新模型,推理效率与编程能力双突破
阿里通义实验室于4月16日宣布开源其最新模型Qwen3.6-35B-A3B,此举标志着其在高效能大模型领域的又一次关键布局。该模型的核心亮点在于其采用的稀疏混合专家(MoE)架构,实现了总参数量350亿与单次推理仅激活30亿参数的高效平衡,旨在以更低的计算成本提供更强的性能。 在具体性能上,Qwen3.6-35B-A3B在智能体编程任务上实现了对前代Qwen3.5-35B-A3B的显著超越。更值得注意的是,其表现足以与参数量更大的稠密模型,如Qwen3.5-27B和Gemma-31B等,展开正面竞争。同时,该模型展现出良好的生态兼容性,能够适配OpenClaw、Claude Code、Qwen Code等主流编程助手框架,这为其快...