7月14日,世界数字科学院(WDTA)在联合国日内瓦总部正式发布全球首个《AI智能体运行安全测试标准》(AI STR标准)。该标准由蚂蚁集团、清华大学、中国电信牵头,联合普华永道、新加坡南洋理工大学、美国圣路易斯华盛顿大学等20余家国际机构及高校共同编制,标志着人工智能治理迈入标准化新阶段。
作为全球首个单智能体运行安全测试技术规范,AI STR标准针对智能体跨越“语言墙”引发的行为风险,首次构建了覆盖输入输出、大模型、RAG(检索增强生成)、记忆系统和工具调用五大核心链路的全流程风险分析框架。技术层面,标准创新提出模型检测、网络通信分析及工具模糊测试等方法,系统解决了智能体安全测试领域长期存在的技术标准空白问题。
在AI for Good全球峰会期间举办的“数字技术与人工智能社会影响全球咨询会”上,WDTA执行理事长李雨航强调,该标准旨在建立可执行的安全测评体系,将伦理责任嵌入AI全生命周期。目前,相关测评认证已在金融、医疗等高敏感领域试点应用,企业安全合规成本预计可降低30%以上。
行业数据显示,2025年被称为“智能体元年”,AI智能体凭借自主决策能力深度渗透商业场景,但超70%从业者担忧AI幻觉、数据泄露等风险,半数企业尚未设立专职安全负责人。此次标准发布被视为应对行业痛点的关键举措,其“五维一体”防护体系包括:建立双向安全过滤机制防范恶意指令、强化大模型抗干扰能力、实现动态数据加密存储等,为智能体部署提供系统性安全保障。
据市场分析,随着全球AI安全市场规模预计突破300亿美元,该标准的落地将加速构建可信AI生态,推动技术应用与风险治理的协同发展。
© 版权声明
文章版权归作者所有,未经允许请勿转载。