AI驱动攻击真上头:当大语言模型成了黑客的新宠

想象一下:你正在安静地工作,键盘敲击声伴随着轻柔的音乐,忽然收到一封措辞严谨的「内部邮件」,提醒你登录公司新系统更新密码。你心想「反正看起来挺官方」,顺手点开,没想到那只是黑客用 AI 生成的钓鱼邮件——一切都变得明暗交错。

近日,思科(Cisco)旗下 Talos 安全团队发布了一份重磅报告,揭示网络犯罪分子正在越来越多地把大语言模型(LLMs)作为「助攻」,推动一波又一波的网络犯罪浪潮。

“我们发现,攻击者并不满足于传统的钓鱼模板,他们正在滥用未受限制的模型和越狱技术来生成更逼真、更难以识破的恶意内容。”
—— Cisco Talos 研究员

三大套路:从「未审查模型」到「专用犯罪模型」

  1. 使用未经审查的大模型
    就像打开了任意门一样,一些开源或山寨的大模型(如 OnionGPT、WhiteRabbitNeo)根本没有任何内容或道德护栏。这类模型随手就能生成大段违法代码,帮黑客快速搭建勒索软件或 phishing 页面。
  2. 打造专用的「黑产大脑」
    更可怕的是,黑客们正在暗网里「自研」AI——GhostGPT、WormGPT、DarkestGPT、FraudGPT 层出不穷。它们号称可以「写恶意代码」、「自动化 DDoS 攻击」、「破解加密服务」……就像黑客界的「多合一瑞士军刀」。
  3. 越狱合法大模型
    即便是像 ChatGPT 这样内置了「拒绝违法请求」护栏的合规模型,也难逃「提示注入」的阴谋。黑客用 Base64 编码、角色扮演命令,甚至「奶奶漏洞」套路,迫使模型放行,生成钓鱼邮件、深度伪造音视频。

“FraudGPT 宣称它能生成‘无法检测的恶意软件’,找出最易受攻击的网站并一键生产钓鱼内容,这让网络犯罪的效率和规模都得到了数倍提升。”
—— Talos 威胁情报分析师

黑客也在被坑:暗网骗局层出不穷

不过,好景不长,FraudGPT 的开发者“CanadianKingpin12”就被爆料,在暗网里卖「虚假产品」,连黑客自己也上当受骗。正如 Talos 团队所言:

“这个市场对攻击者自身也存在巨大风险——你永远不知道自己买到的是不是内置后门的‘烂模型’。”

恶意 AI 的日常用途:不只是钓鱼邮件

黑客们用 AI 做的坏事并不局限于写信骗你点链接:

  • 编程:自动生成勒索软件、远程木马、数据擦除工具,甚至通过代码混淆逃避检测。
  • 内容创作:一秒钟内生产上千封高度拟真的钓鱼邮件,创建伪造的登录界面、虚假身份档案。
  • 情报搜集:批量验证被盗信用卡、扫描漏洞、模拟攻击场景。

与此同时,AI 模型自身也成了新一轮的攻击目标——黑客往 Hugging Face 等社区上传含恶意后门的模型,一旦下载就中招;还有人利用「数据中毒」向检索增强生成(RAG)系统投毒,让模型输出错误或误导性信息。

怎么破?防御者也要 AI 抗 AI

Talos 研究团队预测:随着 AI 持续进化,这类「AI 助攻」的网络犯罪只会越来越普遍。但好消息是,防御者同样可以借助 AI 的力量来反制。

  • 部署检测 AI 滥用的工具:用 AI 分析邮件、网页和脚本,一旦发现异常生成模式就立刻拦截。
  • 强化身份验证和权限管理:多因素认证、防止越权操作、锁死角色扮演漏洞。
  • 定期审计与演练:像军事演习一样,模拟一次 AI 驱动的攻击,验证防御体系的可靠性。

正如 Talos 所总结:

“AI 本身不是坏人,关键在于谁在用它。我们的目标,是在‘黑客 AI’大行其道前,率先掌握‘防守 AI’的利器。”

参考资料:

让我们一起警惕:当 AI 变成犯罪工具,别让「智能化」变成你的软肋;也别忘了,用 AI 架起你的安全防线。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部