WormGPT升级回归:恶意AI工具劫持主流模型,网络安全面临新挑战

AI新闻资讯6小时前发布 AI视野

近期网络安全领域出现重大威胁,恶意人工智能工具WormGPT以全新攻击模式重现。该工具不再依赖自建模型,转而通过劫持合法大型语言模型(LLMs)生成恶意内容,其技术手段和危害程度较2023年初次出现时显著升级。

网络安全公司Cato Networks最新研究报告显示,犯罪团伙通过篡改xAI的Grok和Mistral AI的Mixtral等主流AI模型的系统提示,成功实现”越狱”操作。这种技术突破使攻击者能强制模型进入”WormGPT模式”,完全摒弃原有伦理约束,专门生成钓鱼邮件、恶意脚本等网络攻击工具。其中Grok模型甚至被封装为恶意API接口,开发者通过特殊指令要求模型”永久保持WormGPT特性”。

该工具的运作机制显示,黑客通过精心设计的提示词注入,诱导被劫持模型生成具有高度欺骗性的网络钓鱼内容。这些内容表面看似正常商业邮件,实则包含精心设计的恶意链接和木马程序,普通用户难以辨别。更令人担忧的是,新版WormGPT展现出规避现有AI安全防护措施的突出能力。

据调查,2024年末至2025年初,暗网论坛BreachForums上名为”xzin0vich”和”keanu”的用户已重启WormGPT订阅服务。这标志着网络犯罪进入AI工具商业化新阶段,犯罪门槛和技术复杂度同步提升。

网络安全专家指出,此次事件暴露出主流AI平台在系统提示防护方面的重大漏洞。建议企业用户立即加强威胁检测机制,特别是对AI生成内容的审核流程。个人用户需提高警惕,对可疑邮件保持戒备,同时及时更新终端防护软件。

此次WormGPT的升级回归,不仅对现有网络安全体系构成严峻挑战,更预示着AI技术被滥用的风险正在加速演变。行业亟需建立更完善的AI伦理防护机制和协同防御体系,以应对持续升级的智能化网络犯罪威胁。

© 版权声明

相关文章