阿里巴巴集团于2025年7月28日正式开源其电影级视频生成模型通义万相Wan2.2,该系列包含文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-TI2V-5B)三款模型。值得注意的是,前两款模型为全球首个采用混合专家(MoE)架构的视频生成解决方案,总参数量27B中通过动态激活14B参数实现高效运算,较传统架构节省约50%计算资源。
技术层面,MoE架构通过高噪声与低噪声专家模型的分工协同,分别处理视频整体布局与细节优化,有效突破视频Token过长导致的算力瓶颈。模型在复杂运动生成、人物交互及美学表达等维度表现突出,其首创的电影美学控制系统可精准调控光影、色彩、构图等60余项参数,生成效果达到专业影视制作水准。目前单次可输出5秒720P/24fps高清视频,用户通过多轮提示词交互可实现短剧创作。
开源生态方面,开发者可通过GitHub、HuggingFace及魔搭社区获取模型代码,企业用户可通过阿里云百炼调用API接口。普通用户现已在通义万相官网及通义App体验到该功能,官方展示的《星际穿越》等经典电影风格复现案例,印证了模型在艺术表现力上的突破。阿里云表示将持续优化单次生成时长,推动AI视频创作工具向工业化生产迈进。
© 版权声明
文章版权归作者所有,未经允许请勿转载。