WhisperX tag archive

#国产算力

This page collects WhisperX intelligence signals tagged #国产算力. It is designed for humans, search engines, and AI agents: each item links to a canonical source-backed record with sector, source, timestamp, credibility, and exportable structured data.

Latest Signals (6)

The Lab · 2026-03-30 04:09:39 · 36氪最新 (RSSHub)

1. DeepSeek服务中断近10小时登热搜,重大故障背后V4期待值拉满

DeepSeek在2026年迎来的首个热搜,并非万众期待的V4发布,而是一场持续近10小时的服务中断。3月29日晚间,大量用户反馈登录失败、对话中断,话题迅速冲上热搜。官方状态页将此次事件标记为“重大故障”,持续时间长达7小时13分钟,这是继3月5日网页不可用后,短期内发生的又一次严重服务问题。值得注意的是,故障期间API服务未受影响,但网页和APP端的核心对话功能一度瘫痪。 根据DeepSeek官方状态页的详细时间线,团队于3月30日00:20首次介入排查,并在01:24和09:13两次发布修复更新。然而,在第二次更新后,用户虽能登录,却遭遇了“已读不回”的尴尬局面——AI助手会展示思维链,但无法正常输出答案。直至10:33官方...

The Lab · 2026-04-12 15:32:54 · 钛媒体

2. 智谱AI GLM-5.1发布即引爆:九成中国互联网巨头“Day0”接入,国产算力链集体适配

一个尚未盈利的AI公司,在三个月内连续发布三款模型,竟引得中国前十大互联网公司中的九家争相接入。智谱AI最新开源的GLM-5.1模型,正以前所未有的速度和密度,在中国科技巨头间掀起一场罕见的“接入潮”。这不仅是一场技术发布,更是一次对中国大模型生态位和产业链自主性的集中压力测试。 公开信息显示,GLM-5系列已获得至少18家企业的公开接入或适配官宣,覆盖互联网、云服务、软件及硬件四大层级。字节跳动、阿里巴巴、腾讯、百度、美团、快手等头部厂商均已将其核心AI助手或平台产品深度集成GLM。尤为关键的是,腾讯、百度、字节跳动均在GLM-5.1发布当天(Day0)完成全线产品升级或全栈适配,显示出远超以往的技术对接速度和战略优先级。金山办...

The Lab · 2026-04-24 08:27:32 · 36氪

3. DeepSeek V4开源同步完成海光DCU适配,AI算力生态加速整合

4月24日,深度求索正式发布并开源DeepSeek V4,同步实现海光DCU对该模型的Day0适配。这一协同动作打破了传统模型发布与芯片适配之间的时间差,形成“模型发布—芯片适配—产业落地”的高效闭环,为全球开发者及企业客户提供了即取即用的部署方案。 此次适配的核心在于海光DCU对DeepSeek V4的原生支持能力。Day0适配意味着在模型开源当天,硬件层面已完成验证与优化,开发者无需等待后续驱动更新或二次调优即可直接部署。这一响应速度在国产AI芯片生态中尚不多见,折射出深度求索与海光在协同验证流程上的深度整合能力。对于需要快速交付AI能力的企业用户而言,模型与芯片的同步就绪大幅压缩了从评估到生产的时间周期。 从产业格局来看,...

The Lab · 2026-04-27 00:57:35 · 36氪

4. DeepSeek-V4低成本推理跑通国产算力 基座模型跃升倒逼算力供需博弈

中信建投证券最新研报揭示,当前AI模型竞争格局正出现关键转折点:DeepSeek-V4与GPT-5.5同期发布,但两者选择了截然不同的技术路径与商业策略。DeepSeek-V4凭借CSA/HCA注意力压缩与mHC网络重构,在性能逼近闭源旗舰模型的同时,将百万token上下文推理成本压至极低水平,并首次在国产化算力基座上完成完整训练与推理验证。这一突破意味着,国产GPU集群在规模化AI应用中的可行性获得实质性背书。 相比之下,GPT-5.5延续软硬件深度耦合的技术路线,主攻高复杂度知识工作场景,维持高定价匹配高智能的商业逻辑。两种模式的并行演进,折射出当前AI产业的核心矛盾:模型能力持续攀升与算力供给紧张的长期博弈。中信建投指出,基...

The Lab · 2026-04-29 09:27:36 · 36氪最新 (RSSHub)

5. DeepSeek-V4强势入场:万亿参数首嫁国产算力,价格战背后暗藏隐忧

DeepSeek-V4上线仅数日,围绕其技术突破与市场策略的讨论持续发酵。与外界此前对DeepSeek迭代放缓的质疑形成鲜明对比,梁文锋用V4的强势发布给出了回应。V4-Pro版本参数规模达到1.6T,较V3扩大两倍,跻身开源模型最高梯队,直接向OpenAI和谷歌看齐,同时保留1M超长上下文能力。这一参数规模的跃升,标志着DeepSeek正式告别"小而美"路线,转向"参数暴力美学"与稀疏架构效率并行的策略。 更具行业标志性意义的是国产算力适配的突破。DeepSeek技术报告首次将华为昇腾与英伟达并列写入,将细粒度专家并行方案在双平台上均完成验证。V4在昇腾平台上实现1.50至1.73倍推理加速,成为全球首个在国产算力底座上完成训练...

The Lab · 2026-04-30 11:57:33 · 36氪最新 (RSSHub)

6. DeepSeek V4 与美团 LongCat 双双「破万亿」:国产算力从追赶到并行的信号

2026年4月下旬,DeepSeek V4与美团LongCat-2.0-Preview相继发布,两者总参数规模均突破万亿,并同时支持1M超长上下文。这一看似技术参数的对标,实质上折射出国内AI产业正在经历一场深刻的范式切换:从搭乘成熟方案,转向铺设自主轨道。 DeepSeek V4的发布历程本身即为信号。据外部普遍推测,该模型从定档到最终发布经历多次时间调整,原因之一在于将核心代码从英伟达CUDA生态迁移至华为昇腾平台。CUDA经过十几年打磨,已是工具完备的开发环境,而国产算力生态仍处构建初期,迁移意味着大量底层框架重构工作。V4发布两日后,摩根大通在报告中指出,该模型成功适配华为昇腾芯片,验证了国产算力在前沿AI推理上的可行性,...