OpenAI紧急修复ChatGPT高危隐私漏洞,深度研究功能曾致用户Gmail数据泄露

近日,OpenAI紧急修复了ChatGPT平台中一项涉及用户隐私安全的高危漏洞。该漏洞存在于今年2月上线的“深度研究”功能中,网络安全公司Radware于9月18日披露其技术细节,攻击者可利用该漏洞窃取用户Gmail账户中的敏感数据。

技术分析显示,黑客通过构造包含隐蔽指令的特制邮件实施攻击。当用户要求ChatGPT对邮箱内容执行深度分析时,AI系统会被诱导将包含姓名、地址等个人隐私的数据自动传输至恶意网站。值得注意的是,这种攻击完全发生在OpenAI的云基础设施内,传统终端安全防护措施无法检测,用户全程无感知。

Radware研究人员指出,攻击成功需满足多项条件:用户查询主题需与恶意邮件内容精确匹配,且攻击者需采用多重社工技术绕过AI安全协议,包括伪造授权声明、伪装合规验证系统、强制数据持久化传输等。这种通过AI代理反向实施数据窃取的攻击模式,在网络安全领域尚属新型威胁。

OpenAI在8月收到漏洞报告后迅速响应,目前已完成三项核心修复措施:限制AI访问外部数据的范围、增强异常行为监测机制、完善指令过滤系统。公司发言人强调,模型安全性始终是技术开发的首要考量,未来将持续与外部安全团队合作强化防护体系。

此次事件暴露出AI代理在自动化处理敏感信息时的潜在风险。专家建议用户谨慎授权AI访问核心数据系统,并密切关注厂商发布的安全更新。行业观察人士指出,随着各大科技公司竞相推出类似功能,此类漏洞可能存在跨平台复现风险,亟需建立行业级的安全协作机制。

© 版权声明

相关文章