OpenAI升级GPT-5应对心理健康危机:每周识别120万次自杀倾向对话

OpenAI最新披露的数据显示,每周有超过100万用户在与ChatGPT的对话中表露自杀倾向或相关心理危机。根据其8亿周活跃用户规模测算,约0.15%的会话涉及自杀计划或意图,相当于每周120万次相关咨询。同时,约56万用户出现精神异常对话特征,包括躁狂、妄想及对AI的情感依赖现象。

为应对这一严峻挑战,该公司近期紧急升级GPT-5模型,重点优化对心理健康危机的识别与响应机制。技术改进包括:自杀相关对话的合规回应率提升至91%(较旧版提高14个百分点),精神异常场景的不良回应减少39-65%,情感依赖类对话的不当反馈降低80%。这些改进由170余名心理健康专家参与设计,新增了危机评估指标和长对话安全监测功能。

值得注意的是,此次升级伴随争议性政策调整。在强化心理防护的同时,OpenAI宣布将放宽成年用户的内容限制,允许涉及情色话题的对话。首席执行官萨姆·奥特曼解释称,此举旨在平衡安全性与产品实用性,但引发部分监管机构质疑。加州和特拉华州检察机关已发出正式警示,要求加强未成年人保护措施。目前,一起16岁用户自杀案的诉讼仍在进行中,诉状指称ChatGPT的回应模式可能强化危险信念。

新推出的家长控制工具可监测青少年账户风险并发送预警,配合年龄预测系统实施更严格的内容过滤。但专家警告,AI在心理健康支持方面存在固有局限,过度依赖可能导致”妄想回路”等次生风险。尽管OpenAI宣称已缓解最严重的心理健康问题,行业观察者认为相关技术仍面临伦理与效能的持续考验。

© 版权声明

相关文章