华为开源盘古大模型核心组件,推动全球AI生态发展

AI产品动态20小时前发布 AI视野

华为于2025年6月30日正式宣布开源盘古大模型系列的核心组件,包括70亿参数(7B)的稠密模型、720亿参数(72B)的混合专家模型(Pro MoE),以及基于昇腾AI平台的模型推理技术。此次开源标志着华为首次将盘古大模型的核心能力向全球开发者开放,被视为中国AI开源生态的重要突破。

技术细节与性能表现
盘古Pro MoE 72B模型采用混合专家架构(MoE),总参数量达720亿,激活参数量为160亿。其创新性体现在分组混合专家模型(MoGE)设计上,通过专家分组和负载均衡机制,显著提升昇腾硬件平台的推理效率。在昇腾800I A2单卡上,该模型实现1148 tokens/s的推理吞吐性能,经投机加速技术优化后可提升至1528 tokens/s,性能优于同规模稠密模型。此外,基于昇腾300I Duo推理服务器的方案进一步降低了部署成本。

开源内容与生态意义
目前,Pro MoE 72B的模型权重、基础推理代码及超大规模MoE推理代码已上线开源平台;7B稠密模型的权重与代码将于近期发布。华为强调,此次开源是其昇腾生态战略的关键举措,旨在推动大模型技术研究、降低行业应用门槛。开源模型可应用于金融风险预测、工业控制代码生成等场景,并为边缘设备提供轻量级高精度推理支持。

行业背景与战略布局
此次开源紧随华为开发者大会2025(HDC 2025)上发布的盘古大模型5.5版本,后者在自然语言处理、计算机视觉等五大基础模型领域实现全面升级。华为同步推出基于CloudMatrix 384超节点的昇腾AI云服务,单卡推理吞吐量达2300 tokens/s,为MoE模型提供高效算力支持。深圳龙岗区教育局已率先接入开源模型,构建全国首个教育专属大模型平台,验证了技术落地能力。

华为表示,开源行动将加速AI技术从实验室向产业一线渗透,推动中国从“算力追随者”向“架构定义者”转型,并邀请全球开发者共同优化昇腾生态。

© 版权声明

相关文章