OpenAI开源两款MoE模型gpt-oss-120B/20B:支持消费级设备部署,硅基流动国际站同步上线

AI产品动态15小时前发布 AI视野

OpenAI近日发布了两款开源轻量级MoE模型gpt-oss-120B和gpt-oss-20B,标志着该公司自2019年GPT-2后时隔六年重返开源领域。硅基流动国际站已于8月19日正式上线这两款模型,为开发者提供端侧AI部署新选择。

两款模型均采用混合专家架构与MXFP4量化技术,显著降低部署门槛。其中gpt-oss-120B总参数量达1170亿,激活参数51亿,可在单张80GB显存的H100 GPU上运行;gpt-oss-20B总参数210亿,激活参数36亿,仅需16GB内存即可在消费级设备部署。基准测试显示,120B版本性能接近闭源o4-mini,20B版本则与o3-mini相当,在代码生成、工具调用等场景表现突出。

技术细节显示,模型采用分组多查询注意力机制(组大小8)和旋转位置编码,原生支持128K上下文长度。通过密集与稀疏注意力交替模式,结合与专有模型相同的强化学习训练流程,实现了推理效率与性能的平衡。硅基流动国际站提供的服务定价为:120B版本输入0.09美元/M Tokens,输出0.45美元/M Tokens;20B版本输入0.04美元/M Tokens,输出0.18美元/M Tokens。

OpenAI表示,此次开源旨在满足本地部署需求,特别适用于数据安全敏感场景。模型已与Responses API兼容,支持智能体工作流中的指令执行、网页搜索及Python代码调用等功能。值得注意的是,商业许可对年收入超1亿美元或日活百万以上的实体设有限制。

硅基流动国际站同步开放了在线体验入口和API文档,新用户可获1美元赠金进行测试。行业观察人士认为,此举将加剧与Meta、Mistral AI等企业在开源模型领域的竞争,同时为边缘计算和移动端AI应用开辟新可能。

© 版权声明

相关文章