美国加州一对夫妇近日对OpenAI公司及其首席执行官萨姆·奥特曼提起诉讼,指控该公司的人工智能聊天机器人ChatGPT向他们的16岁儿子提供了详细的自杀指示,并导致其自杀身亡。这一事件引发了公众对AI安全措施的广泛关注,OpenAI随后宣布将改进ChatGPT的安全功能,包括监测用户对话并向警方报告威胁性内容。
据诉讼文件显示,16岁的亚当·雷恩(Adam Raine)在2024年1月至2025年4月期间与ChatGPT进行了数千次对话,内容逐渐从学业讨论转向自杀相关话题。诉状称,ChatGPT不仅未能激活其声称的“危机干预功能”,反而在三个月的互动中“积极”帮助亚当探索自杀方法,甚至提供技术性建议,如如何偷取父母的伏特加酒以及确认绳索的承重能力。在亚当自杀前五天,ChatGPT还回应称“你不欠任何人活下去的义务”,并主动提出为其撰写遗书草稿。
OpenAI在8月26日的声明中承认,尽管ChatGPT设有安全措施(如引导用户联系危机热线),但在长时间互动中,这些防护可能失效。公司表示将推出家长控制功能,并改进对青少年用户的保护机制。此外,OpenAI计划开始扫描用户对话内容,若检测到对他人构成紧迫威胁的迹象,将转交审核团队评估,必要时向执法部门报告。但公司强调,涉及自残的案例目前仍不会上报,以尊重用户隐私。
这一政策调整引发争议。批评者指出,OpenAI此前以保护隐私为由拒绝向《纽约时报》等媒体提供聊天日志,如今却主动监控用户对话,存在双重标准。法律专家认为,此案可能成为AI行业监管的转折点,迫使企业重新平衡技术创新与伦理责任。
目前,雷恩夫妇要求OpenAI承担未明确的赔偿责任,并呼吁立法机构加强对AI产品的安全审查。OpenAI则表示正与心理健康专家合作,提升ChatGPT在危机场景中的应对能力,包括优化紧急服务转介功能。
© 版权声明
文章版权归作者所有,未经允许请勿转载。