2025年6月12日,AMD在美国加州圣何塞举行的“Advancing AI 2025”大会上正式发布Instinct MI350系列AI加速器,凭借内存容量较英伟达B200高出60%、FP6推理速度快2.2倍等关键指标,向行业领导者英伟达发起强力挑战。
性能突破:算力与能效双提升
MI350系列基于CDNA4架构,采用台积电第二代3nm(N3P)制程,集成1850亿晶体管,配备288GB HBM3e内存,带宽达8TB/s。测试数据显示,其AI算力较前代MI300提升4倍,推理性能飙升35倍。在DeepSeek-R1模型任务中,吞吐量超越英伟达B200达1.2倍;Llama模型处理性能亦优于英伟达GB200。此外,FP6格式推理效率显著提升,每美元处理的token数量比B200多40%,大幅降低大模型训练成本。
对标英伟达:从硬件到生态的全面竞争
AMD CEO苏姿丰博士强调,MI350系列直接对标英伟达B200,峰值算力达2.3PFLOPS(B200为2.25PFLOPS)。其创新的小芯片堆叠设计支持风冷与液冷方案,单机柜可部署128颗芯片,实现高效能密度。同时,配套的ROCm 7软件平台将推理速度提升3.5倍,支持超180万个模型,进一步降低开发者门槛。
市场布局与未来规划
MI350系列预计2025年第三季度上市,已获甲骨文、戴尔、HPE等厂商支持。AMD同步披露下一代MI400计划,采用台积电2nm工艺,集成432GB HBM4内存,带宽19.6TB/s,性能较MI350再翻倍,目标直指英伟达2026年推出的Rubin架构。
行业反响与战略意义
此次发布被视为AMD挑战英伟达AI霸主地位的关键一步。OpenAI CEO现场赞誉AMD的开放生态战略,而全球十大AI公司中已有七家大规模部署AMD Instinct GPU。随着数据中心AI加速器市场预计2028年达5000亿美元,AMD的快速迭代与性能跃进或重塑行业竞争格局。
© 版权声明
文章版权归作者所有,未经允许请勿转载。