谷歌与Meta Platforms近日宣布深化合作,共同推进AI芯片的软件生态建设。最新进展显示,双方正着力优化谷歌自研张量处理器(TPU)在Meta开源框架PyTorch上的兼容性,旨在为开发者提供更灵活的硬件选择,降低对英伟达GPU的单一依赖。
此次合作标志着谷歌TPU战略的重大转向。此前,谷歌TPU仅限内部及云平台客户使用,而根据12月披露的协议草案,Meta拟于2026年通过Google Cloud租用TPU算力,并于2027年直接采购芯片部署至自有数据中心。若计划落地,这将成为谷歌首次向第三方开放本地化TPU部署权限,交易规模或达数十亿美元。
技术层面,双方重点解决软件栈适配问题。TPU需深度整合PyTorch的算子库和编译器工具链,才能有效支持Meta旗下30亿日活用户所需的AI推理与生成任务。知情人士透露,Meta希望通过软件优化将部分模型训练任务迁移至TPU,但初期仍会保留GPU作为主力算力。
市场对此反应强烈。消息公布后Alphabet股价单日上涨2.95%,Meta跟涨1.8%,而英伟达股价则承压下跌3.25%。分析师指出,此举可能打破英伟达CUDA生态的垄断地位,推动AI硬件市场形成“GPU+TPU+ASIC”的多元格局。不过行业人士提醒,TPU大规模商用仍面临工具链成熟度、供应链稳定性等挑战,实际替代进程可能慢于市场预期。
值得关注的是,合作还涉及基础设施联动。为匹配TPU的高带宽需求,谷歌已向光模块供应商追加1.6T规格订单,预计2027年采购量将达2026年的四倍。这反映出AI算力竞赛正从芯片向全栈基础设施延伸,光互联技术或成下一竞争焦点。
谷歌AI基础设施业务新任负责人阿明・瓦赫达特表示,开放TPU生态是公司“AI优先”战略的关键步骤,未来将面向金融、高频交易等领域拓展客户。Meta则未对合作细节置评,但此前内部文件显示,其目标是通过多元硬件布局降低30%的模型推理成本。
© 版权声明
文章版权归作者所有,未经允许请勿转载。