华为开源Flex:ai容器技术,AI算力利用率提升30%突破行业瓶颈

华为于2025年11月21日在上海举办的“2025 AI容器应用落地与发展论坛”上正式发布并开源了创新AI容器技术Flex:ai。该技术通过算力切分与智能调度,显著提升GPU/NPU等智算资源的利用率,平均提升幅度达30%,同时兼容英伟达、昇腾及第三方算力卡,打破生态壁垒。

技术核心与创新
Flex:ai基于Kubernetes容器编排平台构建,具备三大关键能力:
1. 算力资源切分:将单张GPU/NPU卡切分为10%粒度的虚拟算力单元,实现单卡并行承载多个AI工作负载,解决小任务独占整卡导致的资源闲置问题。
2. 多级智能调度:动态感知集群负载,结合任务优先级与算力需求,实现资源与负载的精准匹配,保障高波动场景下的稳定运行。
3. 跨节点算力聚合:独创“拉远虚拟化”技术,将分散的闲置算力整合为共享资源池,通用服务器可远程调用智能算力,提升集群整体效率。

行业痛点与解决方案
当前AI算力平均利用率仅30%-40%,Flex:ai通过软件层创新弥补硬件性能差距,尤其适用于大模型训练场景。例如,瑞金医院联合华为开发的多模态病理大模型“RuiPath”,依托Flex:ai技术,仅用16张昇腾910B算力卡即完成103万张病理切片的训练,资源可用度从40%提升至70%。

开源生态与行业应用
Flex:ai已同步开源至魔擎社区,与华为Nexent智能体框架、DataMate数据工程等工具共同构成ModelEngine开源生态。华为副总裁周跃峰强调,开源旨在降低技术门槛,推动AI在医疗、金融、教育等行业的规模化落地,实现“算力资源平民化”。

对标国际竞争
相较英伟达收购的Run:ai(专注GPU生态),Flex:ai以开放架构兼容异构算力,填补国内该领域空白。第三方机构预测,到2027年75%的AI负载将采用容器技术部署,Flex:ai的发布为国产算力效率提升提供关键支撑。

目前,该技术已在多个行业试点,未来或重塑算力资源分配模式,推动AI产业从“硬件堆砌”向“效率驱动”转型。

© 版权声明

相关文章