近日,在国际人工智能联合会议(IJCAI 2025)期间,蚂蚁数字科技(以下简称“蚂蚁数科”)与斯坦福大学分别开源了两大深度伪造数据集,引发全球AI安全技术领域广泛关注。此次开源的资源涵盖多模态伪造场景,旨在为行业提供关键基础数据,推动深度伪造检测技术的突破性进展。
多国协作共研深度伪造防御技术
8月18日,蚂蚁数科与新加坡科技研究局联合主办的“深度伪造检测、定位、可解释性”研讨会在加拿大蒙特利尔举行。来自中国、美国、澳大利亚等国的学者及行业专家围绕Deepfake识别技术展开交流。会上,蚂蚁数科开源的DDL-Datasets包含180万条训练数据,覆盖人脸伪造、视频篡改、声音克隆三大高危场景,涉及80余种伪造手法,并标注了造假画面位置与时间节点。该数据集已通过Modelscope平台向全球开放,其精细化标注特性显著提升了算法可解释性。
斯坦福大学联合谷歌、加州大学伯克利分校同期发布了DeepAction数据集,包含2600段由7款大模型生成的人类动作视频及对应真实镜头,内容涉及行走、烹饪等日常行为,研究者可通过Hugging Face获取。相关论文《AI生成人体动作检测》提出基于多模态语义嵌入的鉴别技术,凭借强鲁棒性抵御数据篡改干扰,获研讨会最佳论文奖。
技术落地与行业应用
蚂蚁数科在金融风控领域已实现Deepfake检测准确率超98%,其安全科技品牌ZOLOZ的“实人认证”服务覆盖25个国家和地区。此次开源行动进一步填补了行业在跨模态伪造检测数据资源的空白,为构建全球性AI安全防御体系提供基础设施支持。
随着生成式AI技术滥用风险加剧,此类大规模高质量数据集的开放将加速检测技术迭代,助力应对信息真实性挑战。蚂蚁数科表示,未来将持续投入AI安全研究,协同国际机构完善技术标准与治理框架。
© 版权声明
文章版权归作者所有,未经允许请勿转载。