近日,可灵AI最新发布的2.5版本视频生成模型在微表情与复杂情绪表现领域取得突破性进展,引发行业广泛关注。该模型目前正面向超级创作者进行灰度内测,并已在第30届釜山国际电影节亚洲内容与电影市场大会(ACFM)上完成全球首秀,与Google、Midjourney等科技巨头同台展示其电影级场景生成能力。
技术评测显示,2.5版本在人物动态表现方面实现显著进化。测试案例中,系统能精准呈现特工角色从高空速降到摩托飞驰的连续动作,不仅保持运动轨迹的物理合理性,更完整还原玻璃破碎的粒子效果、落地缓冲的微动作等细节。相较于前代版本2.1存在的环境交互失真问题,新模型将动作连贯性提升至专业影视制作水准。
创作者实测反馈表明,该模型对复杂情绪张力的表现尤为突出。有用户利用新模型制作的《速度与激情》风格短片,成功实现追车戏码的肾上腺素飙升效果,角色在高速镜头下的微表情变化与拳击场景中的肌肉颤动均达到拟真级别。这种表现力突破使得单个创作者无需专业团队支持即可完成电影级动作场景创作。
据运营方透露,2.5版本采用多模态大语言模型驱动的两阶段生成框架,通过”多模态导演模块”将语音情感轨迹、图像特征与文字指令融合为结构化剧情描述。这种技术路径使系统能同步控制口型、微表情及肢体动作,支持中英日韩多语种场景下的情绪连贯表达。
市场数据显示,可灵AI上线15个月已覆盖149个国家和地区,服务超4500万用户。此次2.5版本的推出,标志着AI视频生成技术正式进入影视工业应用领域。该模型预计近期全面开放,其商业化应用将显著降低广告、电商等行业的专业视频制作门槛。
© 版权声明
文章版权归作者所有,未经允许请勿转载。