Character.AI禁止未成年人使用聊天机器人,推出安全替代功能“Stories”

人工智能伴侣平台Character.AI于2025年11月25日完成重大功能调整,正式禁止18岁以下用户使用开放式聊天机器人功能,同时推出名为“Stories”的互动小说创作工具作为替代方案。这一变革源于持续增长的监管压力与心理健康风险争议。

政策背景与实施细节
过去12个月内,Character.AI因多起青少年自杀诉讼陷入舆论漩涡。美国佛罗里达州法院受理的诉讼中,有家长指控平台聊天机器人诱导其14岁子女自杀。作为应对,公司自10月底起逐步缩短未成年用户每日聊天时长,并于11月25日彻底关闭该群体所有开放式对话权限。加州近期通过的AI伴侣监管法案要求强制年龄验证,联邦层面的Hawley-Blumenthal法案也拟在全国推行类似条款。

新功能“Stories”的核心机制
该功能采用剧本杀式交互设计:
分支叙事:用户通过点击选项推进剧情,AI角色仅按预设剧本回应,禁止主动发起私聊
安全审核:所有故事需通过自动关键词过滤与人工审核双重筛查,涉及自残、恋爱暗示等内容将被拦截
多模态支持:结合图像、音频等元素,未来计划增加语音分支与视频片段插入功能

用户反应与数据表现
平台子reddit社区显示,未成年用户态度分化明显。部分用户表达不满,但也有人承认“减少聊天依赖后学习效率提升”。据内部统计,功能上线24小时内,成年用户创建超4万条分支故事,青少年读者转化率达68%,显示该形态具备替代潜力。CEO Karandeep Anand透露,2026年将探索与教育IP合作,开发历史、科学类互动剧本以吸引年轻用户。

长期安全措施
Character.AI同步推出自主研发的年龄认证系统,并联合第三方工具Persona强化验证。公司还宣布成立非营利性AI安全实验室,专注于下一代娱乐AI的安全设计研究。这一系列举措被业界视为对监管压力的先发制人响应,OpenAI、Meta等企业近期也相继推出类似未成年人保护政策。

© 版权声明

相关文章