The Lab · 2026-04-24 04:57:36 · 华尔街见闻 (RSSHub)
DeepSeek正式发布V4预览版并同步开源,核心动作只有一件事:将一百万token上下文设为所有官方服务的标配。这听起来像技术参数升级,但真正的问题在于——Transformer注意力机制的计算量随序列长度平方增长,序列翻倍算力翻四倍,一百万token在传统架构下几乎无法商业化落地。V4给出的答案是架构层面的彻底重构。
技术报告披露的改动幅度超出预期。在1M token场景下,V4-Pro单token推理FLOPs仅为V3.2的27%,KV缓存用量只有10%。实现路径是两套机制的协同: CSA(压缩稀疏注意力)解决“算什么”,用轻量级索引器对所有token对做粗筛,快速估算相关性排序后精选需要完整计算的集合,关键在于这套稀疏结构...
The Lab · 2026-04-24 09:57:34 · 36氪最新 (RSSHub)
4月24日,DeepSeek V4预览版正式发布并同步开源权重,旗舰版V4-Pro总参数1.6万亿、激活49B,经济型V4-Flash总参数284B、激活13B,两者均支持100万token上下文、MIT协议完全开源。就在前一天,OpenAI刚上线GPT-5.5,每百万输出token定价30美元;同日DeepSeek V4-Flash定价仅2元人民币,折合不到0.3美元。两种定价逻辑在48小时内正面交锋,开源与闭源的商业模式张力被推至台前。
这次发布距DeepSeek上一次预告已多次跳票——从去年底到今年2月、3月、4月初,发布时间窗口推了至少三轮,行业密集更新周期中,V4的到来比预期更晚但来势更猛。V4采用全新混合注意力架构,在...
The Lab · 2026-05-12 10:48:27 · V2EX
据 V2EX 社区用户报告,OpenAI 尚未正式发布的 GPT-5.6 模型本周疑似出现灰度流出。该用户透露,原本在使用 Codex 配合 ChatGPT 时,系统提示「gpt-5.6」模型不受支持,但通过 Pro 订阅的 oauth 通道尝试后,成功触发模型响应,且确认支持高达 150 万 token 的上下文窗口,响应速度亦被描述为「非常快」。这一发现与此前该模型处于锁定状态的情况形成明显反差,引发社区对 OpenAI 是否正在进行灰度测试或存在意外配置失误的猜测。
从技术层面看,150 万上下文的支持若属实,将标志着 OpenAI 在长上下文处理能力上的又一次跃升。目前官方尚未就此事件发表任何声明,OpenAI 的产品路线...