7月24日,可灵AI视频生成平台宣布完成多图参考模型的技术迭代,经第三方盲测验证,新模型在综合性能指标上实现102%的提升。此次升级重点优化了角色一致性、动态画面流畅度及多主体交互逻辑,同时首次引入局部参考功能,标志着AI视频生成技术进入精细化控制阶段。
技术突破方面,新模型通过改进神经网络架构,显著提升了跨图像特征提取能力。在测试案例中,系统可准确识别多张参考图中同一角色的服饰细节、面部特征,并保持连续动作的自然过渡。动态质量改善尤为突出,复杂场景下的粒子效果渲染效率提升40%,解决了此前多主体互动时的穿模问题。
局部参考功能的加入是本次升级的核心创新点。用户现可通过框选工具指定参考区域,例如仅提取某张图片的人物发型或特定道具,系统将自动过滤背景干扰元素。这一功能特别适用于商业广告制作,可实现产品外观与不同场景的无损融合。测试数据显示,采用局部参考后,用户修改次数平均减少67%。
平台数据显示,自1月多图参考功能上线以来,已累计生成超过420万条融合视频,其中影视类二创内容占比达38%。此次升级后,预计将进一步提升UGC内容的专业度,尤其在动漫衍生、电商展示等垂直领域具有应用潜力。目前新功能已全量推送至网页端及移动端应用,会员用户可优先体验高级参数调节选项。
行业分析师指出,这轮升级巩固了可灵AI在多模态生成领域的技术优势。其局部参考方案有效解决了AIGC领域长期存在的”特征污染”难题,为后续的3D资产复用奠定了基础。据内部路线图显示,平台下一步将重点攻关跨模态风格迁移,计划在第四季度推出实时协作编辑功能。
© 版权声明
文章版权归作者所有,未经允许请勿转载。