英伟达卖铲,谷歌建厂:两套AI叙事背后,格局已变
3月的GTC 2026,黄仁勋将数据中心定义为"生产Token的工厂",预测这一市场到2027年将达万亿美元规模。不到六周后的Google Cloud Next 2026,桑达尔·皮查伊给出了另一组数据:谷歌每分钟处理160亿个token,上季度还是100亿,资本开支高达1750亿至1850亿美元。两人都在谈Token,但一个是供给视角,一个是消耗视角——这场竞争的本质,已经悄然位移。
英伟达卖的是生产资料。GPU作为通用算力,从OpenAI到Meta,从字节跳动到主权基金,几乎所有头部AI玩家都在其客户名单之列。CUDA生态汇聚超600万全球开发者、900余个加速库,二十年的生态飞轮早已成为AI算力底层的标准件。2025财年,NVIDIA数据中心业务收入超过1150亿美元,同比增长超200%,毛利率维持在75%以上,在全球AI加速器市场占据约80%份额。换言之,每10块AI算力芯片中,至少8块来自英伟达。这是一门典型的"卖铲子"生意,而且是所有人都离不开的那种。
谷歌的路径截然不同。它不卖单一工具,而是自建完整体系:自研TPU芯片、训练Gemini模型、运行于Google Cloud之上,再对外输出服务。Google云业务年收入已接近600亿美元,过去一年增长约50%,AI需求成为最核心驱动力。这更像是先建一座完整工厂,再将富余产能对外输出。英伟达的逻辑是把设备卖给所有人,谷歌的逻辑是先让体系跑起来,再让别人接入。一个掌握生产资料,一个在组织生产过程——这不是同一场竞争。
值得注意的是,谷歌自2017年TPU v2起至2025年v7 Ironwood,六代产品均采用单颗通用芯片同时承载训练与推理任务。但从最新披露看,TPU的结构设计正发生关键变化,从"一把刀切所有"转向更精细的分工。这一调整意味着什么,值得持续跟踪。