微博开源VibeThinker-1.5B小模型:15亿参数超越6700亿竞品,SSP训练框架颠覆AI研发

2025年11月13日,新浪微博AI创新实验室正式发布开源大模型VibeThinker-1.5B,这款仅15亿参数的模型凭借创新的训练方法,在多项基准测试中超越参数量达400倍的竞品,引发行业对“小模型高智能”技术路线的广泛关注。

颠覆性性能表现
VibeThinker-1.5B在AIME24、AIME25及HMMT25数学竞赛测试集上,性能超越6710亿参数的DeepSeek-R1-0120版本;在编程测试集LiveCodeBench v6中追平欧洲Minstral.AI的Magistral-Medium-2506模型(参数量为其数十倍)。其单次后训练成本仅7800美元,较DeepSeek-R1的29万美元和MiniMax-M1的53万美元降低数十倍,显著降低了AI研发门槛。

核心技术突破:SSP训练框架
模型的核心竞争力源于“频谱到信号原理”(SSP)这一创新训练哲学。传统方法强调直接优化单次回答准确率(Pass@1),而SSP将训练分为两阶段:
1. 频谱阶段:通过监督微调(SFT)鼓励模型生成多样化解题路径,以Pass@K(答案多样性)为指标,拓宽思维空间;
2. 信号阶段:利用强化学习(RL)从多样化解法中精准锁定最优策略,实现性能跃升。
该设计类比收音机调频——先广泛接收信号再聚焦最优频道,突破了传统训练过早收敛的局限。

行业影响与开源生态
VibeThinker-1.5B已通过GitHub、Hugging Face等平台开源,为中小企业和高校提供高性价比研发路径。其成功验证了算法创新可替代参数堆砌,与微软VibeVoice-1.5B、字节Tar-1.5B等共同推动小模型技术趋势。业内专家指出,此举可能重构AI竞争格局,未来技术突破将更依赖训练策略优化与垂直场景适配。

微博AI团队表示,后续将聚焦SSP方法在多模态任务的扩展应用,进一步探索小模型性能边界。

© 版权声明

相关文章