谷歌最新文生视频模型Veo 3.1的首批生成样本近日通过Vertex AI云平台及Google Vids视频创作工具流出,展示了该模型在AI视频生成领域的技术突破。实测显示,Veo 3.1能够根据文本指令生成8秒时长的720p高清视频,并首次实现音画同步输出,其配乐在情感表现力方面较前代显著提升。
技术团队通过优化神经网络架构,使新模型在语义解析精度、视觉保真度和质量控制三大维度实现突破。在”赛博朋克黑客机器人”与”火山喷发”等主题测试中,Veo 3.1展现出对复杂语义的深度理解能力,能够精准还原熔岩流动的粘稠质感,并修正前代模型中常见的恐龙肢体比例失调问题。性能测试表明,模型输出稳定性较Veo 3提升40%以上,画面细节丰富度提高35%,错误率降至1.2%以下。
值得注意的是,Veo 3.1引入了物理引擎级动态模拟功能,使生成的视频在物理运动和交互上更加真实。同时,该模型支持SVG到视频的直接转换,为专业设计领域提供了新的创作工具。尽管目前仅支持8秒视频生成,但其展现的多模态融合算法为未来长视频生成奠定了技术基础。
行业观察人士指出,Veo 3.1的推出标志着谷歌在与OpenAI的Sora 2视频模型竞争中取得重要进展。该模型已面向特定开发者群体展开封闭测试,但谷歌尚未公布正式商用时间表。
© 版权声明
文章版权归作者所有,未经允许请勿转载。