WhisperX tag archive

#边缘计算

This page collects WhisperX intelligence signals tagged #边缘计算. It is designed for humans, search engines, and AI agents: each item links to a canonical source-backed record with sector, source, timestamp, credibility, and exportable structured data.

Latest Signals (4)

The Lab · 2026-04-03 00:29:24 · 36氪最新 (RSSHub)

1. Google Gemma 4 全面开源:手机、树莓派可离线运行,小模型性能直追大模型

Google 刚刚发布了四款 Gemma 4 系列模型,并宣布全面支持 Apache 2.0 开源协议。此举标志着其小模型策略的重大转向,从过去“开放但受限”的 Gemma 系列,迈向了真正的“开源”,让开发者能够自由下载、本地运行、修改和再分发。其中,最小的 E2B/E4B 版本专为手机和物联网设备设计,甚至可以在树莓派上完全离线运行,实现了“以小小小小胜大”的部署理念。 此次发布的四个尺寸模型,底层技术与 Gemini 3 同源,覆盖从边缘设备到高性能工作站的完整硬件谱系。专为移动端设计的 E2B/E4B 模型,与 Google Pixel 团队及高通、联发科深度合作优化,推理时仅激活 2B 或 4B 参数以节省内存和电量,支...

The Lab · 2026-04-03 01:29:22 · 36氪最新 (RSSHub)

2. 谷歌Gemma 4开源模型震撼发布:31B参数击败20倍体量对手,手机离线可跑多模态AI

谷歌最新发布的Gemma 4开源模型家族,以惊人的效率颠覆了AI模型性能的常规认知。其旗舰31B Dense模型,在竞技场排行榜中击败了参数量大10-20倍的Qwen3.5-397B和DeepSeek v3.2-671B等对手,跻身开源前三。这一成绩并非来自臃肿的千亿参数巨兽,而是源于基于Gemini 3同款技术打造的、效率优先的四个精悍模型:E2B、E4B、26B MoE和31B Dense。最小的2B版本甚至能在手机和树莓派上离线运行,处理语音和视频等多模态任务,标志着高性能AI向边缘设备的实质性下放。 Gemma 4系列的核心是极致的效率设计。最大的31B密集模型适合微调,而26B MoE模型在推理时仅激活3.8B参数,却位...

The Lab · 2026-04-06 05:59:20 · 36氪最新 (RSSHub)

3. iPhone本地跑Gemma 4爆火,手机端AI推理速度超40 token/秒

谷歌开源的全新模型Gemma 4,正迅速成为手机用户的新玩具。其较小的E2B和E4B型号可直接在iPhone等手机端本地运行,支持原生全模态处理,并拥有128K的上下文窗口,被用户形容为“可以放进口袋的Gemini平替”。一个在X平台展示iPhone本地运行Gemma 4处理图片、音频和控制手电筒的视频,已获得数十万围观,用户惊叹其速度“快得像魔法一样”。 具体性能引发关注。在搭载苹果芯片的iPhone上,配合苹果优化的MLX框架,Gemma 4的推理速度被量化超过每秒40个token。类似的高速表现也在三星Galaxy手机上复现,甚至在开启“思考模式”后依然保持,这让手机端运行复杂AI模型成为未来可接受的选项,尤其在医疗等对数据...

The Lab · 2026-04-17 11:03:34 · 36氪最新 (RSSHub)

4. 英伟达“AI Grid”愿景遭ABI Research狙击:边缘GPU部署真能解决延迟痛点?

英伟达在GTC大会上描绘的“AI Grid”宏大蓝图,正面临来自市场研究机构的尖锐质疑。该愿景旨在将全球电信网络转型为分布式AI基础设施,利用运营商现有的铁塔、光纤和频谱资源,构建一个由AI工厂、区域接入点、基站等节点组成的统一网络。然而,ABI Research发布的最新分析报告直指其核心逻辑,质疑这一愿景在当下是否站得住脚,还是仅仅是一场押注遥远未来的昂贵赌博。 报告的核心挑战聚焦于英伟达推动“AI Grid”落地的关键论据——延迟。英伟达认为,在网络边缘部署GPU能有效降低延迟,满足实时应用需求。但ABI的分析明确指出,对于当今主流的生成式AI工作负载而言,这一论点“站不住脚”。报告指出,影响用户体验的关键指标是首字延迟,而...