腾讯发布混元语言模型HY 2.0:4060亿参数MoE架构,支持256K上下文,领跑国产大模型

腾讯于2025年12月5日正式推出混元语言模型Tencent HY 2.0系列,包含HY 2.0 Think和HY 2.0 Instruct两个版本。该模型采用混合专家(MoE)架构,总参数规模达4060亿,激活参数320亿,支持256K超长上下文窗口,其推理能力与运行效率在国内处于领先地位,尤其在文本创作、复杂指令遵循等实际应用场景中表现突出。

相较于前代Hunyuan-T1-20250822模型,HY 2.0 Think通过优化预训练数据与强化学习策略,在数学运算、科学推理、代码生成及多步骤指令执行等复杂任务中展现出显著优势。据测试数据显示,该模型在国际数学奥林匹克竞赛(IMO-AnswerBench)和哈佛MIT数学竞赛(HMMT2025)等权威评测中取得一流成绩,同时在Humanity’s Last Exam(HLE)和ARC AGI等考验知识深度与泛化能力的任务上实现突破性进展。

技术层面,HY 2.0采用RLVR+RLHF双阶段强化学习策略,结合大规模高质量数据训练,使模型输出在逻辑严谨性和创造性方面均有提升。目前该模型已集成至腾讯云API服务,并在元宝、ima等腾讯AI原生应用中完成部署。同步接入的DeepSeek V3.2模型进一步扩展了生态应用场景。

此次升级标志着腾讯在自然语言处理领域的技术积累进入新阶段。分析指出,该模型将推动金融、教育、科研等领域的智能化转型,为开发者提供更高效的AI工具链。腾讯方面表示,将持续优化模型在跨模态任务和多语言环境下的表现,加速人工智能技术的产业化落地进程。

© 版权声明

相关文章