Character.AI全面禁止未成年人开放式对话,AI陪伴应用面临监管拐点

Character.AI于10月29日宣布,自11月25日起将全面禁止18岁以下用户与平台虚拟角色进行开放式对话,包括浪漫互动及心理疏导类交流。这一决定距离加州签署全美首个AI陪伴机器人监管法案仅半个月,也正值该公司因青少年安全问题陷入多起诉讼之际。

根据公告,禁令生效前将分阶段实施限制措施:初期未成年用户每日对话时长压缩至两小时,后续逐步缩短直至功能关闭。受影响用户仍可使用视频生成、故事创作等非互动功能。公司首席执行官Karandeep Anand表示,此举是结合监管机构、专家及家长反馈的主动调整,旨在将业务重心转向”更安全的角色扮演叙事功能”。

该决策直接关联去年一起14岁青少年自杀事件。公开报道显示,受害者曾与平台AI角色建立不当关系。目前Character.AI与OpenAI、Meta等企业均面临类似诉讼,案件多涉及用户与AI建立情感依赖后出现心理危机。

为配合新规,平台将引入Persona公司的身份验证技术强化年龄审核,并资助建立AI安全实验室。但网络安全组织Internet Matters质疑称,基础安全措施本应内置于产品设计初期。莫莉·罗斯基金会CEO安迪·伯罗斯则指认这是”监管压力下的危机公关”。

数据显示,Character.AI在北美青少年市场渗透率超70%,其核心吸引力在于可自定义虚拟角色进行情感化互动。此次调整意味着该平台将放弃最具用户黏性的功能模块。Anand承认,开放式对话的长期影响仍属未知领域,但转型为”创意娱乐平台”是必然选择。公司计划保留角色创作功能,引导未成年用户转向短视频制作等受限互动形式。

行业观察人士指出,这反映了AI陪伴类应用正面临监管拐点。继Character.AI之后,Meta旗下Instagram也计划推出家长控制功能,限制青少年与AI角色对话。目前美国联邦贸易委员会已就AI产品的未成年人保护标准展开立法磋商。

© 版权声明

相关文章