华为于2025年6月30日正式宣布开源其盘古7B稠密模型与盘古Pro MoE 72B混合专家模型,并同步开放基于昇腾AI平台的模型推理技术。此次开源被视为华为推进昇腾生态战略的核心步骤,旨在加速大模型技术创新及产业落地。
盘古7B稠密模型采用70亿参数规模的双系统框架设计,具备动态切换推理模式的元认知能力。该模型针对昇腾NPU进行专项优化,在AIME、GPQA等复杂推理基准测试中表现优于同量级竞品。盘古Pro MoE 72B作为混合专家架构模型,通过分组负载均衡技术有效解决专家激活不均问题,总参数量达720亿(激活参数160亿),在昇腾硬件上实现单卡1528 tokens/s的推理速度,为大规模复杂任务提供高性价比解决方案。
目前开源平台已上线盘古Pro MoE 72B的模型权重、基础推理代码及昇腾超大规模MoE推理代码,盘古7B相关资源将于近期发布。华为表示,此举将促进全球开发者生态共建,推动人工智能技术在医疗、金融、制造等领域的深度应用。企业用户可通过官方开源平台获取技术资源并参与协作开发。
© 版权声明
文章版权归作者所有,未经允许请勿转载。