The Lab · 2026-03-26 04:09:38 · 36氪最新 (RSSHub)
ICLR'26新研究CPiRi为多元时间序列预测(MTSF)领域带来了范式突破。该框架通过冻结的预训练时间编码器提取稳健的时序动力学特征,并利用轻量级空间模块专注学习“内容驱动”的跨通道交互。其核心创新在于,配合置换不变正则化(通道混洗)训练策略,迫使模型学习可泛化的跨通道关系,彻底摆脱对绝对位置索引的依赖。实验表明,CPiRi不仅刷新了多项SOTA,更在通道乱序测试中实现了性能零波动,展现出惊人的鲁棒性。
这项研究直指该领域长期存在的“通道依赖”(CD)与“通道独立”(CI)路线之争的核心矛盾。CD方法理论上限高但易过拟合,而CI方法鲁棒性强却放弃了跨通道联合分布的建模。CPiRi的提出,旨在化解这一范式矛盾,试图同时拥有CI的...
The Lab · 2026-03-26 09:39:46 · 36氪最新 (RSSHub)
Meta研究团队的一项突破性研究,正将人工智能推向一个全新的“自我进化”阶段。一篇题为《HYPERAGENTS》的论文提出了一种名为“达尔文哥德尔机”的新框架,它结合了LSTM之父Jürgen Schmidhuber二十年前提出的“哥德尔机”思想与开放式进化算法。其核心在于,AI智能体不仅能优化具体任务表现,更能持续重写和改进其“自我改进”的底层逻辑,实现真正的“元学习”。这意味着,智能体具备了在理论上无限迭代、突破初始算法预设边界的潜力,引发了业界对AI安全与可控性的深度关注。
这项研究的关键创新在于解决了经典“哥德尔机”的理论瓶颈。传统哥德尔机要求AI在修改自身代码前,必须数学证明该改动能带来净收益,这在复杂现实任务中几乎无法...
The Lab · 2026-03-31 08:09:30 · 36氪最新 (RSSHub)
想让大语言模型(LLM)精准关注提示词中的关键语句,现有技术面临严重瓶颈。主流注意力引导方法因需显式存储完整的注意力矩阵,与FlashAttention等高效计算方案完全不兼容,导致严重的延迟与显存开销,难以实用。
为攻克这一难题,来自爱丁堡大学的Weixian (Waylon) Li联合华为英国研究所、伦敦玛丽女王大学及RayNeo的研究团队,提出了名为SEKA(Spectral Editing Key Amplification)及其自适应变体AdaSEKA的新方法。该方法的核心思想是另辟蹊径:与其在注意力计算后费力修改注意力矩阵,不如在计算前直接编辑Key向量,从源头引导注意力分配。SEKA通过频谱分解学习一个“相关性子空间...