清华大学TSAIL实验室与生数科技联合研发的开源视频生成加速框架TurboDiffusion近日正式发布,该技术通过系统性创新实现了AI视频生成领域的突破性进展。测试数据显示,该框架在单张RTX 5090显卡环境下,能将主流视频生成模型的推理速度提升97至200倍,同时保持生成质量稳定。
技术实现方面,TurboDiffusion融合了多项前沿优化方案。其核心创新包括SageAttention注意力机制与SLA稀疏线性注意力算法的协同应用,通过动态调整计算密度,显著降低了高分辨率视频处理的算力开销。团队还引入rCM时间步蒸馏技术,通过重构采样流程将扩散模型的迭代次数压缩至原有方案的1/10。此外,8位线性层量化技术的应用使显存占用降低60%,为消费级硬件提供了更优的适配方案。
性能测试结果表明,在Wan-2.1-T2V-1.3B-480P模型上,5秒视频生成时间从184秒缩短至1.9秒;对于参数规模更大的Wan-2.2-I2V-A14B-720P模型,生成耗时从1.2小时优化至38秒。即便面对1080P分辨率的高清视频生成任务,端到端延迟也从900秒大幅缩减至8秒。
该框架目前已提供多版本模型权重下载,针对不同硬件配置进行了针对性优化。量化版方案适配RTX 4090/5090等消费级显卡,非量化版本则能充分发挥H100等专业级硬件的性能潜力。开发团队表示,所有技术方案均已通过GitHub平台开源,配套提供了详细的硬件适配指南和训练脚本。
© 版权声明
文章版权归作者所有,未经允许请勿转载。