近日,人工智能研究机构OpenAI针对业界传闻作出正式回应,澄清其与谷歌在AI芯片领域的合作范围。公司发言人明确表示,尽管已启动对谷歌张量处理器(TPU)的初步技术评估,但现阶段并无大规模部署该芯片的计划。这一声明直接回应了此前路透社关于OpenAI将采用谷歌TPU支持ChatGPT等服务的报道。
目前,OpenAI的算力基础设施仍以英伟达GPU为核心,同时通过AMD的MI系列加速器补充算力资源。在2025年AMD Advanced AI活动上,公司首席执行官萨姆·奥尔特曼曾公开确认与AMD的合作关系。市场分析指出,引入谷歌TPU理论上可优化运营成本,但实际部署需完成软件适配与模型调优等复杂技术流程,短期内难以实现规模化应用。
值得关注的是,OpenAI正通过多维度策略构建算力自主权。除外部采购外,其自研AI芯片项目已取得实质性进展。据悉,首款芯片采用台积电3纳米制程工艺,集成HBM内存,设计工作预计于年内完成并进入制造环节,2026年有望实现量产。这一布局反映出OpenAI降低对第三方供应商依赖的战略意图。
行业观察人士认为,OpenAI对谷歌TPU的测试性使用,客观上是对谷歌AI芯片技术成熟度的认可。谷歌TPU自2015年投入应用以来,已服务包括苹果在内的多家科技企业。然而,OpenAI当前主要依赖CoreWeave等云服务商提供的GPU集群,其多云战略覆盖谷歌云、微软Azure等平台,但尚未与亚马逊AWS建立合作。分析师推测,AWS可能面临产能限制,导致其未能进入OpenAI的供应商名单。
此次事件凸显AI芯片市场的竞争态势:英伟达虽保持训练市场主导地位,但推理需求的爆发促使企业探索多元化解决方案。摩根士丹利研报指出,谷歌TPU的商业化进程可能因此加速,而OpenAI的芯片自主计划或将重塑未来产业格局。
© 版权声明
文章版权归作者所有,未经允许请勿转载。