近日,腾讯优图实验室联合华东理工大学、北京大学等研究团队在AI生成图像检测领域取得重要突破。针对当前检测器在跨模型、跨数据域场景下泛化能力不足的问题,研究团队提出Dual Data Alignment(DDA)方法,相关成果已被人工智能顶会NeurIPS 2025接收为Spotlight论文(录取率Top 3.2%)。
研究团队发现,现有检测器性能下降的核心原因在于训练数据构造方式存在系统性偏差。真实图像通常以JPEG格式存储且带有压缩痕迹,分辨率分布分散;而AI生成图像多采用PNG无损格式,分辨率集中在256×256等固定档位。这种差异导致检测器依赖格式、压缩痕迹等表面特征进行判断,而非学习真伪的本质区别。实验显示,当对AI生成的PNG图像进行JPEG压缩后,传统检测器准确率会出现断崖式下跌。
DDA方法通过双重数据对齐策略,从数据层面抑制偏差特征的影响。该方法在语义对齐阶段,利用跨模态模型统一真实与生成图像的语义表征;在分布对齐阶段,通过对抗学习消除两者在低阶统计特征上的差异。经测试,该方法在GenImage等基准数据集上显著提升检测器在未知模型生成图像上的泛化性能,尤其在应对风格迁移、后处理干扰等复杂场景时表现突出。
该技术的突破对应对AIGC技术带来的虚假新闻、身份伪造等安全隐患具有重要意义。腾讯优图表示,未来将继续优化算法框架,并探索在内容审核、版权保护等场景的落地应用。随着AI生成技术持续演进,此类研究将为构建可信的数字内容生态提供关键技术支撑。
© 版权声明
文章版权归作者所有,未经允许请勿转载。