2025年6月17日,上海AI独角兽企业MiniMax正式开源其混合架构推理模型MiniMax-M1,该模型凭借支持100万Token上下文窗口及8万Token推理输出的能力,成为全球长文本处理领域的新标杆。其性能与谷歌Gemini 2.5 Pro持平,并大幅超越国内同类开源模型DeepSeek R1(12.8万Token)的8倍。
技术架构创新:MoE与闪电注意力机制
M1采用混合专家(MoE)架构,通过动态激活特定“专家”模块处理任务,显著降低计算资源消耗。结合自研的Lightning Attention机制,解决了传统Transformer模型长序列处理中计算量平方级增长的瓶颈。技术报告显示,生成10万Token时,M1的算力需求仅为DeepSeek R1的25%,在数学推理、代码生成等复杂任务中表现优异。
开源生态与行业应用
MiniMax同步公开了M1的完整模型权重、技术报告及两个推理预算版本(40K/80K),适配不同规模的计算需求。目前,模型已上线Hugging Face和GitHub,并与国家超算平台、vLLM等开源框架深度合作,优化部署效率。其长文本处理能力为金融文档分析、法律合同审查等场景提供了新的可能性。
成本对标与行业影响
M1以384万元训练成本对标行业主流产品,在性价比上形成竞争优势。业内分析认为,此次发布或推动AI推理模型进入“百万Token时代”,而MiniMax预告的“开源周”活动,暗示后续可能还有更多技术突破。
© 版权声明
文章版权归作者所有,未经允许请勿转载。