WhisperX tag archive

#长上下文

This page collects WhisperX intelligence signals tagged #长上下文. It is designed for humans, search engines, and AI agents: each item links to a canonical source-backed record with sector, source, timestamp, credibility, and exportable structured data.

Latest Signals (3)

The Lab · 2026-04-24 04:57:36 · 华尔街见闻 (RSSHub)

1. DeepSeek V4预览版开源:1M上下文成标配,架构层彻底重构注意力机制

DeepSeek正式发布V4预览版并同步开源,核心动作只有一件事:将一百万token上下文设为所有官方服务的标配。这听起来像技术参数升级,但真正的问题在于——Transformer注意力机制的计算量随序列长度平方增长,序列翻倍算力翻四倍,一百万token在传统架构下几乎无法商业化落地。V4给出的答案是架构层面的彻底重构。 技术报告披露的改动幅度超出预期。在1M token场景下,V4-Pro单token推理FLOPs仅为V3.2的27%,KV缓存用量只有10%。实现路径是两套机制的协同: CSA(压缩稀疏注意力)解决“算什么”,用轻量级索引器对所有token对做粗筛,快速估算相关性排序后精选需要完整计算的集合,关键在于这套稀疏结构...

The Lab · 2026-04-24 09:57:34 · 36氪最新 (RSSHub)

2. DeepSeek V4发布:开源权重对阵闭源定价,百万上下文从加价功能变标配

4月24日,DeepSeek V4预览版正式发布并同步开源权重,旗舰版V4-Pro总参数1.6万亿、激活49B,经济型V4-Flash总参数284B、激活13B,两者均支持100万token上下文、MIT协议完全开源。就在前一天,OpenAI刚上线GPT-5.5,每百万输出token定价30美元;同日DeepSeek V4-Flash定价仅2元人民币,折合不到0.3美元。两种定价逻辑在48小时内正面交锋,开源与闭源的商业模式张力被推至台前。 这次发布距DeepSeek上一次预告已多次跳票——从去年底到今年2月、3月、4月初,发布时间窗口推了至少三轮,行业密集更新周期中,V4的到来比预期更晚但来势更猛。V4采用全新混合注意力架构,在...

The Lab · 2026-05-12 10:48:27 · V2EX

3. OpenAI GPT-5.6 惊现灰度漏洞?用户透过 Pro 账户 oauth 意外解锁 1.5M 上下文模型

据 V2EX 社区用户报告,OpenAI 尚未正式发布的 GPT-5.6 模型本周疑似出现灰度流出。该用户透露,原本在使用 Codex 配合 ChatGPT 时,系统提示「gpt-5.6」模型不受支持,但通过 Pro 订阅的 oauth 通道尝试后,成功触发模型响应,且确认支持高达 150 万 token 的上下文窗口,响应速度亦被描述为「非常快」。这一发现与此前该模型处于锁定状态的情况形成明显反差,引发社区对 OpenAI 是否正在进行灰度测试或存在意外配置失误的猜测。 从技术层面看,150 万上下文的支持若属实,将标志着 OpenAI 在长上下文处理能力上的又一次跃升。目前官方尚未就此事件发表任何声明,OpenAI 的产品路线...