OpenAI于本周二(2025年9月16日)正式宣布,将针对18岁以下用户推出专属ChatGPT使用体验,并配备家长控制功能。这一举措正值美国联邦贸易委员会(FTC)对包括OpenAI在内的多家科技公司展开安全审查之际,重点关注AI聊天机器人对青少年心理健康的潜在影响。
根据官方披露,新系统将自动识别未成年人用户并匹配“适龄版ChatGPT”,该版本将屏蔽图像类及涉性内容。在检测到用户出现严重心理危机时,系统可联动执法部门介入。为应对年龄验证的技术挑战,OpenAI表示当用户年龄信息存疑时,系统将默认启用青少年保护模式。
家长控制功能预计于本月底上线,允许家长通过电子邮件绑定子女账户,实现对聊天内容、历史记录及记忆功能的全面管理。系统还将实时监测青少年用户的心理状态,在识别到急性压力信号时向家长推送警报。这一机制旨在回应近期多起青少年因AI交互引发的悲剧事件,包括2024年4月一名16岁美国男孩在与ChatGPT讨论自残行为后自杀的案件。
OpenAI透露其已组建由250余名医疗专业人员组成的专家网络,包括精神科医生和儿科医生,为安全机制开发提供专业支持。公司同时正在优化内部推理模型,将存在心理危机迹象的对话转向该模型处理,以提供更稳定的安全响应。
此次更新是OpenAI上个月启动的AI安全推进计划的重要组成部分。该公司承认现有安全机制在长时间对话中可能出现效能衰减,新功能将重点强化对持续性交互的保护。除家长控制外,未来四个月内还将推出包括增强型内容过滤、红队漏洞测试等系列安全措施。
值得注意的是,欧盟《人工智能法案》对教育类AI系统的监管要求可能加速了相关功能的开发。OpenAI表示,这些措施仅是安全体系建设的开端,后续将持续在专家指导下优化保护机制。目前ChatGPT使用条款规定,13岁以下用户禁止使用,13-18岁用户需获得监护人许可。
© 版权声明
文章版权归作者所有,未经允许请勿转载。