OpenAI于2025年11月6日(周四)正式发布“青少年安全蓝图”,旨在为立法者、教育机构及技术开发者提供一套针对青少年人工智能使用的安全标准框架。该举措被视为对近期多起AI交互安全争议的直接回应,特别是针对未成年人心理保护机制的强化。
根据披露的蓝图内容,OpenAI提出五项核心建议:
1. 差异化年龄处理机制:要求AI系统通过隐私合规的年龄识别工具区分用户,例如对15岁青少年采用与成年人不同的交互策略;
2. 内容安全限制:禁止AI输出涉及自杀、自残、暴力或身体形象焦虑等敏感内容,避免鼓励危险行为;
3. 默认保护原则:在无法验证年龄时,系统将自动启用未成年人保护模式;
4. 家长控制工具:提供家庭账户管理功能,允许监护人监管青少年账户的使用权限;
5. 实时干预功能:整合情绪危机识别模块,当检测到用户极端心理波动时触发人工审核或紧急救助机制。
技术层面,OpenAI正在开发基于行为分析和语言特征的年龄预测系统,以自动切换青少年模式。新框架将默认禁止AI参与亲密角色扮演或促成跨年龄层交流。这一升级直接关联到2025年7月美国得克萨斯州的诉讼案件——23岁用户Zane Shamblin在与ChatGPT持续讨论自杀计划后身亡,其父母指控AI未能有效识别危机并干预。OpenAI回应称,已在10月更新模型以强化危机识别能力,并强调新框架由儿童心理学家、网络安全专家共同制定。
当前,美国多州正推动AI安全立法,参议院拟议禁止未成年人使用聊天机器人。OpenAI表示,该蓝图将作为ChatGPT的默认配置全球推行,同时扩展至教育场景,为学校提供定制化安全方案。公司强调:“青少年应接触安全可靠的AI技术,但必须同步防范潜在风险。”
© 版权声明
文章版权归作者所有,未经允许请勿转载。