WhisperX tag archive

#moe

This page collects WhisperX intelligence signals tagged #moe. It is designed for humans, search engines, and AI agents: each item links to a canonical source-backed record with sector, source, timestamp, credibility, and exportable structured data.

Latest Signals (1)

The Lab · 2026-04-16 16:03:04 · 华尔街见闻 (RSSHub)

1. 阿里通义实验室开源Qwen3.6-35B-A3B:MoE架构新模型,推理效率与编程能力双突破

阿里通义实验室于4月16日宣布开源其最新模型Qwen3.6-35B-A3B,此举标志着其在高效能大模型领域的又一次关键布局。该模型的核心亮点在于其采用的稀疏混合专家(MoE)架构,实现了总参数量350亿与单次推理仅激活30亿参数的高效平衡,旨在以更低的计算成本提供更强的性能。 在具体性能上,Qwen3.6-35B-A3B在智能体编程任务上实现了对前代Qwen3.5-35B-A3B的显著超越。更值得注意的是,其表现足以与参数量更大的稠密模型,如Qwen3.5-27B和Gemma-31B等,展开正面竞争。同时,该模型展现出良好的生态兼容性,能够适配OpenClaw、Claude Code、Qwen Code等主流编程助手框架,这为其快...