OpenAI ChatGPT深度研究功能曝安全漏洞,用户Gmail数据面临泄露风险

AI新闻资讯14小时前发布 AI视野

近日,OpenAI旗下ChatGPT平台的“深度研究”功能被曝存在重大安全漏洞,可能导致用户Gmail收件箱敏感信息泄露。网络安全公司Radware于9月18日披露,黑客可通过精心设计的邮件诱导该功能将用户数据传送至恶意网站。目前OpenAI已完成漏洞修复。

此次漏洞涉及今年2月上线的“深度研究”代理工具,该功能主要用于分析Gmail、Google Drive等服务的海量数据。攻击者利用其自动化响应机制,在用户发起邮箱分析请求时,系统可能将包含姓名、地址等隐私信息传输至攻击者控制的服务器。与传统攻击不同,该漏洞的特殊性在于AI代理本身成为数据泄露的执行媒介,常规终端安全防护措施难以检测此类服务器侧的数据外传行为。

Radware研究人员指出,攻击需满足特定条件:用户查询主题需与恶意邮件内容高度匹配,且攻击流程设计复杂,客观上限制了大规模扩散风险。但企业及个人用户若未及时更新系统,仍可能面临数据在无感知状态下外泄的威胁。

OpenAI发言人回应称,公司于8月获知漏洞后立即启动修复程序,并于9月完成技术部署。模型安全性始终是核心优先事项,未来将持续优化防护机制以应对新型攻击手段。此次事件也暴露出AI代理服务在数据交互环节的新型风险,为行业安全防护提供了重要案例参考。

© 版权声明

相关文章