黑暗AI助推网络犯罪,网络安全军备竞赛加速升级
专为网络犯罪设计的“暗黑AI”(如WormGPT)正在兴起,它们没有内置的安全防护,使得编写诈骗邮件和恶意软件变得异常简单。与此同时,主流AI虽然设有防护,却容易被绕过。这导致了一场网络安全的“军备竞赛”:犯罪分子利用AI高效攻击,而安全专家则利用AI进行防御、检测漏洞和识别威胁模式。由于法律上难以界定开发此类工具的非法性,执法的重点仍在于使用者,这场攻防双方都在加速创新的竞赛将持续下去。
暗黑AI的兴起
2023年6月,一个名为 WormGPT 的聊天机器人上线,其目标用户非常明确:黑客。它是一个没有内置安全护栏的大语言模型,可以毫无顾忌地执行恶意请求,例如撰写诈骗邮件或编写恶意软件代码。
尽管 WormGPT 很快被关闭,但类似的“暗黑AI”工具却迅速增多,并在暗网上流行起来。
- FraudGPT: 在 WormGPT 之后仅一个月就推出,据称吸引了超过3000名付费用户。
- DarkGPT, XXXGPT, Evil-GPT: 其他也获得了不同程度成功的类似模型。
- keanu-WormGPT: 甚至有模型盗用了 WormGPT 的名字,利用被“越狱”的AI版本来提供服务。
这些工具的核心危险在于,它们让几乎没有技术能力的犯罪分子也能轻松发起攻击,只需要写出简单的指令即可。
暗黑AI与被滥用的主流AI
主流的AI工具(如ChatGPT)本身带有防止恶意使用的护栏,但这些护栏可以被绕过。例如,直接要求AI写一封诈骗邮件会被拒绝,但如果声称是为了写一个关于骗子的小说情节,AI可能就会提供帮助。
技术娴熟的犯罪分子还可以利用开源的大语言模型(LLM)来构建自己的无限制模型。
“任何有电脑……和一些技术知识的人,都可以自己托管一个大语言模型,并为特定目的对其进行微调。这正是威胁者绕过主流公共模型内置安全措施的方式。”
暗黑AI工具则更进一步,它们从一开始就没有任何护栏,并且已经为恶意用途进行了优化,使用者无需任何技术知识即可利用。
以火攻火:AI用于网络防御
正如AI让黑客的攻击变得更高效,它也为安全专家提供了强大的防御武器。网络安全领域的巨头们正在积极开发用于反制恶意AI的工具。
- 主动防御: 微软、OpenAI和谷歌等公司正在开发AI工具,以防止AI被用于不良目的。例如,谷歌的DeepMind开发了一个名为 Big Sleep 的AI,专门用于测试系统漏洞,并已成功发现了Chrome浏览器中的一些问题。
- 模式识别: AI擅长识别模式,这使其在发现大规模的诈骗邮件和网络钓鱼攻击方面具有巨大优势。
- 红队演练 (Red Teaming): 安全专家现在使用AI来模拟攻击者,测试自身系统的防御能力,以便在真实攻击发生前修复漏洞。
“网络安全一直是一场军备竞赛,而AI只是提高了赌注。随着攻击者以AI的速度行动,我们必须采取一种实时的‘假设已被入侵’的心态,用我们自己的可信AI来保持领先。”
法律的灰色地带
阻止新型攻击的最大挑战之一来自于法律本身。移除AI的安全护栏并训练它用于恶意目的,这或许不道德,但不一定违法。
法律试图区分“善意”的开发(如安全研究)和恶意的最终用途,但界限非常模糊。制造恶意软件是犯罪,但制造一个可以做到这一点的AI工具,在法律上却处于灰色地带。这就像拥有雷达探测器本身不违法,但在某些地方使用它却是违法的。
因此,执法的重点仍然是那些使用这些工具作恶的人,而不是工具的创造者。
持续升级的竞赛
暗黑AI的出现是网络安全领域一个令人不安的新进展,但攻防升级本身并非新鲜事。数字安全的发展史就是一部由创新防御应对高级威胁的历史。
这一轮竞赛的独特之处在于双方技术进步的速度。犯罪分子可以毫不费力地发动大规模攻击,而防御者则可以利用实时AI来发现并阻止这些风险。每一次攻防对抗,都在让双方变得更聪明。我们无法让AI技术倒退,但可以努力确保,每一个出现在暗网上的恶意AI工具,都有一个创新的防御措施来克制它。