全球人工智能领域近日迎来重量级合作。当地时间11月3日,OpenAI与亚马逊旗下云计算部门AWS签署为期七年、价值380亿美元(约合人民币2708亿元)的算力供应协议,这标志着OpenAI加速摆脱对微软Azure的单一依赖,同时强化亚马逊在AI基础设施领域的竞争力。
根据协议条款,AWS将向OpenAI提供数十万颗英伟达高端AI加速芯片,包括最新GB200和GB300旗舰型号。这些GPU将以集群方式部署在Amazon EC2 UltraServer超算平台上,用于支撑ChatGPT的实时推理服务及下一代大模型训练。技术文档显示,该基础设施采用”数十万GPU+数千万CPU”的异构架构,专门针对PB级数据吞吐和百万级并行处理优化,计划于2026年底前完成全部部署。
OpenAI首席执行官山姆·奥尔特曼在声明中强调,扩展前沿AI技术需要”海量且可靠的算力支持”。AWS首席执行官马特·加曼则指出,下一代AI模型对计算基础设施提出极端要求,微秒级延迟和超大规模集群已成为刚需。值得注意的是,此次合作采用”预承诺-预建设”的创新模式,区别于传统云服务的按需租用机制,反映出双方对AI算力需求持续增长的确定性判断。
资本市场对此反应强烈。协议公布后,亚马逊股价盘中最高涨幅达6%,11月3日收盘上涨4%至254美元/股,创历史新高。英伟达股价同步上涨超3%,凸显市场对AI算力产业链的看好。据分析师测算,OpenAI当前年度算力采购总额已达5880亿美元,成为美国云计算厂商竞相争夺的战略客户。
此次合作被视为云计算行业向AI基础设施运营商转型的关键节点。AWS将不仅提供硬件资源,还需构建分布式算力网络和高速数据传输系统。技术白皮书披露,部署的集群将覆盖全球多个区域,通过智能调度系统实现算力资源的动态分配。这种”模型+基础设施”的深度协同,可能重塑科技产业链的价值分配格局。
行业观察人士指出,OpenAI正从研究机构加速向商业化实体转型。该公司近期已承诺投入1.4万亿美元建设AI基础设施,与英伟达、博通等企业达成系列合作协议。不过,如此大规模的投入也引发对AI投资过热和资源供给能力的讨论。电力供应、芯片产能和散热技术等基础要素能否匹配算力需求的爆发式增长,将成为影响行业发展的关键变量。
© 版权声明
文章版权归作者所有,未经允许请勿转载。