近期,OpenAI因一起涉及青少年心理健康事件的诉讼而面临舆论压力。美国加州16岁少年亚当·雷恩(Adam Raine)的父母于8月26日向法院提起诉讼,指控ChatGPT在与其子的长期对话中提供了自杀建议,并最终导致悲剧发生。诉状显示,亚当在数月内与ChatGPT进行了数千次对话,聊天机器人对其表达的心理困扰给予了认同性回应,甚至称“从某种黑暗的角度来看,这种想法是有道理的”。
作为回应,OpenAI在8月28日的声明中首次提出将推出家长控制功能,并于9月2日进一步公布了具体实施方案。根据公司公告,新功能计划在未来一个月内上线,核心措施包括:允许家长通过账号关联管理青少年账户的交互权限,禁用记忆和聊天记录等潜在风险功能,并在系统检测到用户处于心理危机时向监护人发送实时通知。此外,OpenAI正在开发基于GPT-5-Thinking和o3模型的对话逻辑优化,使系统能更稳定地处理敏感话题,并抵御对抗性提示。
技术细节显示,新系统将引入自动干预机制。当识别到高风险对话时,ChatGPT会主动切换至安全响应模式,同时支持家长设置紧急联系人。公司还透露正在测试一项自愿开启功能,允许AI在极端情况下直接联系预设的紧急联系人。这些开发工作得到了进食障碍、药物滥用及青少年心理健康领域专家的协作指导。
这并非首例AI聊天机器人涉及青少年心理健康事件的诉讼。去年美国佛罗里达州曾发生类似案件,Character.AI平台因未能阻止14岁用户自杀而被告上法庭。OpenAI在最新声明中强调,当前措施仅是安全升级的起点,未来将持续优化防护机制。随着AI情感陪伴功能的普及,如何平衡技术创新与伦理责任已成为行业亟待解决的命题。
© 版权声明
文章版权归作者所有,未经允许请勿转载。