OpenAI联手博通百亿美元自研AI芯片 2026年量产挑战英伟达霸主地位

OpenAI博通达成百亿美元合作 自研AI芯片量产计划加速推进

为应对激增的算力需求并降低对英伟达GPU的依赖,OpenAI近日宣布与美国半导体巨头博通(Broadcom)达成价值100亿美元的定制AI芯片合作协议。双方将共同设计代号为XPU的专用芯片,采用3nm先进制程并由台积电代工,计划于2026年全面量产。该芯片将专注于大模型训练与推理任务,仅供OpenAI内部使用。

战略背景:算力自主化趋势加剧
随着GPT-5等大模型研发推进,OpenAI对算力的需求呈现指数级增长。当前训练单一顶级模型需消耗数万张英伟达H100芯片,成本高达数亿美元。此次合作标志着科技巨头自研芯片浪潮进入新阶段——除谷歌(TPU)、亚马逊(Trainium)和Meta(MTIA)外,OpenAI成为最新加入硬件自主化竞赛的AI领军企业。

技术细节与市场影响
据披露,XPU芯片将优化能效比与单位算力成本,其设计整合了博通在ASIC(专用集成电路)领域的技术积累。博通CEO陈福阳在财报电话会中证实,已获得某超大规模客户百万级芯片集群订单,预计2026财年第三季度交付。市场普遍认为该客户即OpenAI。受此消息刺激,博通股价单日涨幅超6%,市值增长近900亿美元;同期英伟达股价下跌约3%。

行业竞争格局重构
分析指出,博通凭借定制化服务正逐步侵蚀英伟达的市场份额。其2025年第二季度AI芯片收入同比增长46%至44亿美元,投行预测2026年增速或将超越英伟达。不过,英伟达仍通过CUDA生态维持技术壁垒,并加速研发碳化硅中介层等新材料技术以提升下一代Rubin架构性能。

长期挑战与不确定性
尽管自研芯片可降低长期成本,但前期投入门槛极高。OpenAI此次百亿美元订单仅覆盖芯片研发与初期量产,后续还需构建配套的集群组网技术。行业观察人士认为,未来算力市场可能形成“英伟达通用GPU+巨头专用ASIC”的二元格局,而中小型企业仍将依赖第三方解决方案。

© 版权声明

相关文章