英伟达开源Nemotron-Nano-9B-V2模型:90亿参数性能比肩主流,吞吐量达6.3倍

AI产品动态15小时前发布 AI视野

英伟达近日开源了小型语言模型Nemotron-Nano-9B-V2,该模型凭借90亿参数规模,在多项基准测试中展现出显著性能优势。据官方披露,该模型在数学推理(GSM8K、MATH)、代码生成(Humaneval+、MBPP+)、通用推理(MMLU-Pro)及长上下文处理(RULER128k)等任务中,性能与Qwen3-8B、Gemma3-12B等同类开源模型持平或更优。值得注意的是,其在8k输入/16k输出场景下的吞吐量达到同类模型的6.3倍,实现效率突破。

此次开源的模型系列包含三个版本:对齐剪枝的推理模型NVIDIA-Nemotron-Nano-9B-v2、基础剪枝模型NVIDIA-Nemotron-Nano-9B-v2-base,以及支持128K上下文长度的NVIDIA-Nemotron-Nano-12B-v2-base。所有模型均已部署至HuggingFace平台,开发者可自由调用。技术报告显示,该系列模型采用全新架构设计,通过20万亿Token训练优化,仅需单个英伟达A10 GPU即可运行,显著降低了部署门槛。

英伟达强调,Nemotron-Nano-9B-V2支持AI推理功能的灵活开关,这一特性为工业级应用提供了更高可控性。目前,该模型的技术文档和试用入口已通过官方渠道开放,进一步推动开源生态发展。

© 版权声明

相关文章