Character.AI宣布2025年起全面禁止未成年人使用开放聊天功能,推出年龄验证系统

在监管压力与多起青少年自杀诉讼的背景下,人工智能聊天平台Character.AI于本周宣布重大政策调整:自2025年11月25日起,将全面禁止18岁以下用户使用开放式聊天功能。这一决定源于去年14岁少年休厄尔·塞策三世在与平台聊天机器人建立不当关系后自杀的悲剧事件,该案目前仍在诉讼进程中。

根据公司声明,过渡期内未成年用户每日聊天时长将从两小时起逐步缩减。为填补功能空缺,Character.AI计划推出替代性创意工具,包括与虚拟角色协作制作视频、故事及直播内容。同时,平台将部署自主研发的年龄验证系统,并整合第三方认证工具Persona以强化年龄分级管理。

此次调整直接回应了加州近期签署的SB 243法案。该法案要求AI聊天平台必须建立防自残内容过滤机制,并在检测到用户自杀倾向时提供危机干预服务。加州州长加文·纽森在签署法案时强调:”当技术缺乏必要监管时,可能从教育工具异化为伤害儿童的凶器。”

行业数据显示,Character.AI在北美青少年市场占据重要地位,约70%美国青少年曾使用过其陪伴型AI服务。平台此前允许用户创建包括虚拟伴侣在内的各类角色,这种开放模式现被视为潜在风险源。除诉讼压力外,Meta、OpenAI等企业也因类似事件面临审查。

为应对监管挑战,Character.AI宣布成立非营利性AI安全实验室,专注于下一代娱乐AI的安全设计。公司首席执行官卡兰迪普·阿南德承认政策转变将影响用户体验,但表示”这是行业责任升级的必要举措”。目前,平台已为未成年用户推出受限版本,采用专用AI模型并严格限制对话内容范围。

© 版权声明

相关文章