昆仑元AI发布跨模态融合模型BaiZe-Omni-14b-a2b,多模态AI技术实现重大突破

在2025世界计算大会上,昆仑元AI正式发布了基于昇腾(Ascend)平台的跨模态融合模型BaiZe-Omni-14b-a2b,标志着人工智能技术在多模态领域取得重要突破。该模型通过创新的模态解耦编码、统一跨模态融合及双分支功能设计,实现了文本、音频、图像和视频的理解与生成能力一体化。

技术架构方面,BaiZe-Omni-14b-a2b采用MoE+TransformerX混合架构,引入多线性注意力层和单层混合注意力聚合层,显著提升了大规模全模态任务的计算效率。其双分支设计使模型在语义理解和内容生成两个维度均表现优异,可稳定支持10类多模态任务。训练过程中使用了3.57万亿token文本数据、30万小时音频、4亿张图像及40万小时视频数据,通过差异化数据配比策略确保跨模态对齐质量。

性能测试显示,该模型在多模态理解核心指标上表现突出:文本理解准确率达89.3%,在32768-token长文本摘要任务中ROUGE-L得分0.521,超越GPT-4同项指标0.487。此外,模型还展现出强大的多语言文本生成及跨模态内容生成能力,为智能客服、内容创作等领域提供新的技术解决方案。

值得注意的是,昆仑元AI在发布会现场还与AMD联合推出GPT-Factory Mini AI工作站,并与超聚变达成战略合作推出FusionXpark硬件平台,形成从算法到硬件的完整技术生态。此次发布的BaiZe-Omni-14b-a2b模型,将进一步推动人工智能在多模态应用场景的落地进程。

© 版权声明

相关文章