达特茅斯学院政府学副教授肖恩・韦斯特伍德团队近期在《美国国家科学院院刊》发表的研究成果引发学界广泛关注。其开发的“自主合成应答者”AI系统能够以99.8%的成功率规避现有机器人检测技术,对在线调查研究的真实性构成严峻挑战。
该系统通过多模态行为模拟实现高度拟人化:根据预设的受教育水平调整阅读时长,生成符合人类特征的鼠标移动轨迹,在开放式问题中采用逐字输入并植入合理打字错误。值得注意的是,该工具还能突破reCAPTCHA等主流反机器人机制,并成功应对专门设计的”反向禁忌”测试——这类需要非人类思维模式完成的任务,人类受试者反而难以通过。
研究揭示,AI可构建完整的人口统计学特征画像,使得特定群体特征的虚假回答能够系统性污染调查数据。在模拟2024年美国大选民调的实验中,仅需注入10至52个成本仅0.05美元/条的AI回答(对比人类受访者1.5美元/条的报酬),就足以改变七大主流民调的预测结果。这种低成本干预的特性,使得学术研究、市场调研乃至政策制定的数据基础面临系统性风险。
技术验证显示,该方法的普适性跨越多个主流大模型平台,包括OpenAI的o4-mini、DeepSeek R1、Mistral Large等。系统通过约500字的个性特征提示,即可生成符合特定人口特征的应答行为。
韦斯特伍德教授警告称,当调查数据无法确保人类来源时,整个基于问卷调查的知识体系都可能被颠覆。研究团队建议采取多层次应对策略,包括增强身份验证、改进样本采集方法等,但强调任何解决方案都需在数据质量与隐私保护之间寻求平衡。这一发现对依赖在线调查的科研、商业及公共决策领域敲响了警钟。
© 版权声明
文章版权归作者所有,未经允许请勿转载。