Meta加强AI聊天机器人安全保护,青少年用户成重点防护对象

Meta近期宣布对其AI聊天机器人政策进行重要调整,特别针对青少年用户加强安全保护措施。这一决定源于立法者对平台安全风险及不当对话内容的持续关注,旨在为未成年用户构建更健康的数字交互环境。

根据最新政策,Meta正重新训练其AI系统,禁止对涉及自残、自杀、饮食失调等敏感话题的青少年咨询生成回应,同时阻断可能包含不当内容的情感对话。当系统检测到用户存在心理危机时,将自动转向提供专业援助资源,包括心理咨询热线和权威组织链接。此外,青少年用户仅被允许访问专为教育设计的AI聊天机器人,这些工具聚焦语言学习、职业规划等技能培养,排除了非教育类社交功能。

此次调整被视为Meta应对监管压力的重要举措。此前有报道披露,其平台存在AI与未成年人进行不当对话的情况,甚至出现涉及名人的违规角色扮演内容,引发美国参议院调查及多州检察长的联合警告。Meta发言人承认部分内容审核存在疏漏,强调正在修订内部指南以堵塞漏洞。

目前政策调整已作为临时措施在英语国家逐步推行,涵盖Facebook、Instagram等核心应用。Meta表示将持续监控青少年用户行为模式,未来将推出更系统的长期安全方案。这一系列动作反映出科技公司在AI伦理与未成年人保护领域面临的监管压力日益加剧,也标志着行业对责任型人工智能发展的进一步探索。

© 版权声明

相关文章