英伟达发布Rubin CPX芯片:AI长序列处理突破,百万token上下文推理革新硬件架构

AI产品动态2个月前发布 AI视野

英伟达近日正式发布专为大规模上下文推理设计的Rubin CPX芯片系统,该产品标志着AI硬件在长序列任务处理上的重大突破。作为一款专用GPU,Rubin CPX采用分离式推理架构,将AI计算拆分为上下文理解与内容生成两个独立阶段,显著提升复杂任务的执行效率。

技术参数显示,单颗Rubin CPX具备30千万亿次浮点运算(30 petaflops)的NVFP4精度算力,配备128GB GDDR7显存,内存带宽达每秒1.7千万亿字节。其创新性设计支持单芯片处理百万级token上下文信息,相当于同时解析百万行代码或1小时高清视频内容,注意力处理效率较前代GB300 NVL72系统提升3倍。芯片集成NVENC/NVDNC视频编解码单元,192组流式多处理器(SM)的架构设计使其在视频生成、代码开发等场景展现突出优势。

系统级解决方案Vera Rubin NVL144 CPX平台整合144块Rubin CPX GPU、144块Rubin GPU及36颗Vera CPU,形成完整的分解式服务体系。该机架系统可提供8 exaflops的AI计算性能、100TB高速内存和1.7PB/s内存带宽,性能达到当前旗舰系统的7.5倍。英伟达强调,该平台通过资源分工显著降低推理延迟,1亿美元硬件投资预计可产生50亿美元收入回报。

市场分析指出,Rubin CPX的推出是英伟达应对ASIC竞争的重要战略布局。其专为上下文处理优化的特性,有效解决了超长输入序列下的内存带宽瓶颈问题,特别适用于企业级知识库、多模态视频生成等场景。产品计划于2026年底上市,届时将配套Nemotron系列多模态模型,覆盖从终端设备到数据中心的完整AI开发生态。

© 版权声明

相关文章