全球首款全流程国产类脑脉冲大模型“瞬悉1.0”开源,突破Transformer算力瓶颈

中国科学院自动化研究所近日宣布,其李国齐、徐波团队联合沐曦MetaX成功研发全球首款全流程国产化的类脑脉冲大模型“瞬悉1.0”(SpikingBrain-1.0),并开源70亿参数版本模型及开放760亿参数版本的测试接口。该成果于2025年9月8日正式发布,标志着我国在类脑计算与大模型融合领域取得重大突破。

技术突破与创新路径
研究团队基于原创“内生复杂性”理论,突破传统Transformer架构依赖简单点神经元与算力堆叠的局限,通过模拟大脑神经元工作机制,构建了具有线性复杂度的新型类脑脉冲架构。该模型在国产千卡GPU(沐曦曦云C550)平台上完成全流程训练与推理,实现了超长序列任务处理效率的数量级提升。理论层面,团队揭示了脉冲神经元内生动力学与线性注意力模型的关联性,证明现有线性注意力机制为树突计算的简化形式,为模型性能优化提供了新路径。

核心性能优势
“瞬悉1.0”展现出四大技术特性:
1. 高效训练:仅需主流模型2%的数据量,即可在语言理解与推理任务中达到可比性能;
2. 推理提速:针对法律文书、医学文献等超长序列场景,显存占用与计算开销显著降低;
3. 国产化生态:配套开发国产GPU集群训练框架、Triton算子库及并行策略,实现全链路自主可控;
4. 多尺度稀疏机制:通过动态阈值脉冲化设计,为低功耗神经形态芯片提供理论支撑。

应用前景与开源生态
该模型在复杂多智能体模拟、DNA序列分析等超长序列建模场景中具备潜在优势。团队同步公开中英文技术报告及代码库(GitHub平台),推动非Transformer架构生态建设。李国齐研究员指出,此项成果不仅为法律、医疗等领域提供高效工具,还将加速下一代神经形态计算理论与芯片研发进程。

目前,70亿参数模型已开源,760亿参数版本可通过指定测试平台体验。这一进展为我国在全球人工智能基础架构竞争中开辟了差异化技术路线。

© 版权声明

相关文章