英伟达推出Nemotron 3开源AI模型系列,以MoE与Mamba-Transformer混合架构提升多智能体协作效率

AI产品动态6小时前发布 AI视野

英伟达近日正式推出Nemotron 3开源AI模型系列,涵盖Nano、Super和Ultra三种规格,旨在通过突破性技术架构提升多智能体系统的跨行业协作效率。该系列采用混合潜在专家(MoE)架构与Mamba-Transformer混合设计,支持开发者构建规模化、高可靠性的智能体应用,目前已获得安永、思科、甲骨文等十余家行业领军企业的早期采用。

作为系列中的轻量级产品,Nemotron 3 Nano拥有300亿参数,每次推理仅激活30亿参数,专为高效任务优化。其token处理吞吐量较前代提升4倍,推理成本降低60%,并支持百万级上下文窗口,显著增强长文本处理与多步骤任务能力。该模型已登陆Hugging Face平台,适用于软件调试、内容摘要等场景。中高端型号Super(1000亿参数)和Ultra(5000亿参数)分别聚焦多智能体协同与复杂AI工作流,计划于2026年上半年发布。

技术层面,该系列通过MoE路由机制动态分配计算资源,结合Mamba层的高效序列建模与Transformer的精准注意力机制,在控制成本的同时实现高吞吐量。配套开源的NeMo Gym强化学习工具库和三万亿token训练数据集,进一步降低了开发门槛。制造业客户已利用其优化供应链流程,网络安全团队则用于实时威胁分析,初创企业反馈原型开发周期缩短达60%。

行业分析认为,Nemotron 3的模块化设计将加速智能体生态发展,其开源策略尤其有利于中小企业快速集成AI能力。随着多智能体系统从实验转向规模化部署,该系列有望成为推动产业智能化升级的核心基础设施。

© 版权声明

相关文章