决战AI推理时代!谷歌本周将发布新一代TPU 辉达AI晶片霸主地位不保?
在全球 AI 竞赛从训练阶段迈入推理时代之际,谷歌正準备在 AI 算力版图上打出关键一击。
根据《智通财经》报导,谷歌打算本周在拉斯维加斯举行的 Google Cloud Next 大会上,宣布新一代客製化 AI 晶片——张量处理器 (TPU),藉此强化自身在推理市场的话语权。
负责谷歌 AI 算力基础设施与晶片研发的 Amin Vahdat 虽拒绝针对专攻推理速度的晶片计画置评,但暗示在相对不久的将来将有更多消息释出。
谷歌此举背后是全球 AI 算力竞争结构性转移;从以模型训练为核心,转向以大规模推理为主导。
随着 AI 应用与智能体 (AI Agent) 普及,衡量算力的指标已由峰值性能转向单位 token 成本、延迟与能效,而这正是 TPU 等 AI ASIC(特殊应用积体电路)路线的优势所在。
短短数月内,谷歌独家研发并部署于自家数据中心的 TPU 已成为科技业炙手可热的商品,包括竞争对手在内的顶尖 AI 开发商纷纷抢购,试图在推理时代巩固竞争力。
目前,辉达在 AI 晶片市占率约八至九成,但谷歌正以 TPU 体系正面挑战其霸权。
博通、迈威尔等晶片大厂也携手亚马逊、微软与谷歌,打造量身订做的 ASIC 算力集群,相关业务已成为营收与股价的重要支柱。
经济性与电力限制,让科技巨头纷纷押注 ASIC,以压低单位成本并提升能效,如微软、亚马逊与 Meta 都投入自研晶片,以降低对辉达 GPU 的依赖,并在採购谈判与毛利率上取得主动权。
TPU 的崛起并非一朝一夕。早在去年 10 月,Anthropic 便宣布扩大与谷歌合作,取得最多一百万颗 TPU 的使用权,随后谷歌推出 Gemini 3 模型,并在部分 TPU 平台上完成训练与运行,效能获得好评。Meta 也签署数十亿美元的协议,透过 Google Cloud 使用 TPU,并评估其在推理任务上的优势。
金融机构 Citadel Securities 则打算在本周大会上展示 TPU 在训练大模型上的速度优势。
阿布达比科技集团 G42 亦与谷歌就 TPU 应用进行多次磋商,显示 TPU 已从谷歌内部自用工具蜕变为全球硬通货。
技术层面上,TPU 的演进与谷歌 AI 研究同步。2017 年,谷歌的论文催生了今日的大语言模型 (LLM),也促使 TPU 团队聚焦于训练更大模型的晶片设计。后来,DeepMind 与晶片团队发现,TPU 在强化学习任务中常有闲置,遂调整半导体间的网路连接以提升数据流动效率。
如今,谷歌仍在权衡单一 pod 内的晶片数量与精度配置,以降低成本并提升效能。
谷歌首席科学家 Dean 坦言,即便拥有 TPU,仍需採购辉达 GPU 以满足通用计算需求,因 CPU 性能提升放缓,而 AI 工作负载日益庞大。
然而,TPU 的快速普及也带来挑战。晶片开发週期约三年,但 AI 模型演进速度远快于此,使得预测未来需求变得困难。此外,软硬体紧密结合的设计可能形成技术孤岛,限制生态多样性。
供应链方面,谷歌面临与辉达类似的产能瓶颈,部分新创公司抱怨 TPU 供给优先分配给顶尖团队,如 Anthropic,导致其他用户取得不易。
未来,AI 资料中心很可能走向异构算力时代,也就是前沿训练与广义云算力仍以 GPU 为主,超大规模内部推理、Agent 工作流与固定高频负载则加速转向 ASIC。
谷歌正致力于打破孤岛效应,开放 TPU 支援 PyTorch 等外部工具,并测试让客户在自己的数据中心运行 TPU。这些举措不仅改变外界对 TPU 的定位,也预示着 AI 晶片市场将进入多元竞争的新阶段。
随着推理时代全面来临,谁能在成本、能效与生态开放上取得平衡,谁就能在下一代 AI 战场上佔据制高点。