面壁智能发布MiniCPM 4.1基座模型:稀疏架构突破AI推理效率瓶颈

9月8日,面壁智能正式推出MiniCPM 4.1基座模型,这是对前代4.0版本的全面升级。此次更新核心亮点为新增8B参数的行业首个原生稀疏架构深思考模型,标志着大模型技术在高效率推理领域的突破性进展。

该模型采用稀疏化设计,在保持高性能的同时显著降低计算资源消耗,尤其适合需要长文本深度推理的应用场景。技术团队透露,稀疏架构通过动态激活参数机制,使模型在8B规模下仍能实现接近稠密模型16B级别的复杂任务处理能力。

在部署灵活性方面,MiniCPM 4.1实现多框架兼容支持,包括Ollama、vLLM、SGLang等主流开源推理框架,以及llama.cpp、LlamaFactory、XTuner等轻量化工具链。这种跨平台特性使开发者能够根据硬件条件选择最优部署方案,大幅降低企业应用门槛。

据内部测试数据显示,新模型在数学推导、代码生成等需要多步逻辑推理的任务中,准确率较4.0版本提升约18%。同时,由于采用参数动态分配技术,推理过程中的显存占用减少30%以上,为终端设备部署提供更大可能性。

行业分析人士指出,这是国内首个将稀疏化技术应用于中等规模基座模型的商业化案例,其技术路线不同于国际主流厂商的单纯参数扩张策略,为AI算力瓶颈提供了新的解决思路。面壁智能表示,后续将通过开源社区持续优化模型的长文本处理稳定性。

© 版权声明

相关文章