OpenAI于美东时间8月5日发布了两款开放权重语言模型GPT-OSS-120B和GPT-OSS-20B,这是该公司自2019年推出GPT-2以来首次发布开放权重模型。两款模型均以Apache 2.0许可证发布,允许免费商用及二次开发,标志着OpenAI在开源战略上的重要转向。
GPT-OSS-120B拥有1170亿参数,采用混合专家(MoE)架构,每个token仅激活51亿参数,在标准基准测试中性能接近OpenAI专有模型o4-mini,并能在单块80GB显存的GPU上运行。较小规模的GPT-OSS-20B含210亿参数,仅需16GB内存即可在消费级笔记本电脑上部署,性能与o3-mini相当。两款模型均原生支持128k上下文长度,通过分组多查询注意力(GQA)和旋转位置编码(RoPE)技术显著降低推理成本。
在具体性能表现上,GPT-OSS-120B在编程竞赛(Codeforces)、通用问题解决(MMLU)及医疗问答(HealthBench)等场景中超越o4-mini,其中医疗领域准确率提升达23%。GPT-OSS-20B则在边缘设备部署场景展现出优势,尤其适合隐私敏感型应用的本地化推理。OpenAI强调,两款模型均通过对抗性测试和外部专家安全审查,生物安全与网络安全风险控制达到闭源模型同等标准。
此次发布被视为OpenAI对开源生态的积极回应。CEO Sam Altman在社交媒体称其为”全球最佳开放模型”,指出其兼具前沿性能与硬件适配性。值得注意的是,亚马逊云科技同日宣布将把这两款模型集成至Bedrock和SageMaker平台,微软亦计划为Windows设备提供GPU优化版本。行业分析认为,此举可能重塑当前由Meta、Mistral AI等主导的开源大模型竞争格局,同时为中小企业和研究机构降低AI应用门槛。
© 版权声明
文章版权归作者所有,未经允许请勿转载。