腾讯混元于2025年6月27日正式开源其首款混合推理MoE模型Hunyuan-A13B,该模型以13亿激活参数和80亿总参数量成为业界首个该级别的开源混合推理模型。Hunyuan-A13B在性能上表现卓越,尤其在数学推理、Agent工具调用及长文本处理能力方面,其表现超越Qwen3-A22B、DeepSeek-R1-0120及OpenAI-o1-1217等主流模型,并与Gemini2.5pro在长文本处理上不相上下。
Hunyuan-A13B采用专家混合(MoE)架构,具备“快思考”和“慢思考”两种模式。快思考模式适用于高效处理简单任务,慢思考模式则支持深度推理步骤,如反思与回溯。该模型对开发者极为友好,仅需一张中低端GPU卡即可完成部署,且已无缝接入主流开源推理框架生态,支持多种量化格式,整体吞吐量为前沿开源模型的2倍以上。
腾讯混元通过20T tokens的预训练及多Agent数据合成框架等技术优化,显著提升了模型的推理性能与灵活性。目前,Hunyuan-A13B已上线GitHub、Hugging Face等开源平台,腾讯云API同步开放,支持快速接入。作为腾讯内部日均调用超1.3亿次的核心模型,其开源将推动AI技术普惠化,未来腾讯还计划推出多尺寸模型适配不同场景需求。
© 版权声明
文章版权归作者所有,未经允许请勿转载。