腾讯混元再推四款轻量化开源模型,边缘计算与消费级硬件迎来AI普惠新突破

腾讯混元大模型系列近期在开源领域动作频频,继6月发布80B参数的混合推理MoE模型Hunyuan-A13B后,于8月4日再次推出四款轻量化开源模型,参数规模覆盖0.5B至7B,显著降低大模型技术的应用门槛。这些模型专为边缘计算场景设计,可在消费级显卡设备上高效运行,目前已登陆GitHub、Hugging Face等开源平台,并获得主流芯片厂商的部署支持。

新发布的轻量化模型采用融合推理架构,支持快慢两种思考模式切换。测试数据显示,其在语言理解、数学推理等任务中达到同尺寸模型的领先水平,尤其具备256K原生上下文窗口处理能力,可一次性解析相当于3本《哈利波特》小说的文本量。技术层面,通过强化学习优化的多Agent框架,模型在Excel操作、旅行规划等复杂任务中展现出类人决策能力。

值得注意的是,这批模型已在腾讯会议AI助手、微信读书智能问答等产品中实现商业化落地。其中,智能座舱解决方案采用双模型协作架构,有效平衡车载环境下的计算效率与能耗。搜狗输入法则利用其多模态联合训练机制,在噪声场景下提升语音识别准确率。

作为腾讯混元开源战略的重要组成部分,此次发布的轻量化模型与早前开源的3D世界生成模型、多模态理解模型形成技术矩阵。据腾讯云智能负责人透露,该系列模型将持续迭代,未来计划开放更多垂直领域适配工具链,进一步推动AI技术在终端设备的普惠化应用。

© 版权声明

相关文章