AI生成虚假信息违法?专家解读AI技术滥用法律边界

北京航空航天大学法学院副教授赵精武近日在接受采访时强调,利用人工智能技术生成、发布和传播网络虚假信息属于违法行为,情节严重者可能面临刑事处罚。这一表态呼应了近期司法实践中对AI技术滥用的严厉打击趋势。

今年以来,全国已出现多起利用AI技术制作违法内容的典型案例。3月,湖北大冶市法院对全国首例利用AI生成色情小说牟利案作出判决,被告人柯某通过AI工具批量生成淫秽内容760篇次,非法获利2.28万元,被判处有期徒刑10个月。同月,上海市徐汇区法院审理的类似案件中,被告人李某因通过境外平台贩卖AI生成的色情小说获利15万元,获刑三年。司法机关在判决中明确,AI生成内容若符合违法要件,使用者需承担与人工创作同等的法律责任。

法律专家指出,此类案件暴露出三个关键法律问题:一是技术中立原则的边界,使用者通过设置指令、训练模型等行为构成”实质性创作参与”;二是AI生成物的法律属性,经鉴定符合淫秽物品要件的即受《刑法》规制;三是平台责任,《人工智能生成合成内容标识办法》明确要求服务提供者对生成内容添加标识义务。

值得注意的是,违法行为的危害性评估标准正在更新。司法机关在量刑时不仅考虑违法所得金额,更关注AI技术带来的传播效率提升和社会影响扩大。在浙江某案件中,法院特别指出被告利用AI每小时生成10万字违规内容的能力,将其作为从重处罚的考量因素。

当前监管体系呈现”三位一体”特征:个人使用者面临刑事追责,平台需履行内容审核义务,技术提供方也需完善过滤机制。数据显示,2024年我国网络淫秽信息举报量同比激增47%,其中AI生成内容占比达32%,这促使网信部门在净网行动中强化技术监测手段。

法律界呼吁,AI技术创新必须建立在法治框架内。中国政法大学互联网法律中心主任李教授强调,任何利用技术规避监管的行为都是对公共秩序的挑战。随着《生成式人工智能服务管理暂行办法》等法规的细化实施,AI技术应用的法律红线将进一步明晰。

© 版权声明

相关文章