首页
社区
课程
招聘
最新黑产技术曝光:只需19分钟即可劫持AI大模型
发表于: 2025-3-6 16:21 1603

最新黑产技术曝光:只需19分钟即可劫持AI大模型

2025-3-6 16:21
1603

网络安全

在当前技术迅猛发展的时代,各类人工智能(AI)应用正逐渐成为企业和个人不可或缺的工具。然而,与此同时,网络安全问题也愈发突出,尤其是关于AI系统的安全隐患。最近的研究显示,网络攻击者已能够仅在 19分钟 内劫持企业的AI系统,进一步揭示了潜藏于AI运用中的巨大安全风险。

这一新兴的攻击手法被称为 “LLMjacking”,即针对 大型语言模型(Large Language Model, LLM)的攻击。此类型攻击的核心在于利用泄露的 云凭证,如API密钥、服务账户和机器凭证,绕过传统安全防护措施,从而迅速获取AI系统的控制权,甚至造成巨大的经济损失。

根据安全公司 Entro Labs 的研究,攻击者的行为模式可以分为四个主要阶段,详尽的攻击链如下:

凭证收集:攻击者使用 Python 等编程语言自动化机器人,扫描公共代码库和论坛,以检测有效的凭证。研究表明,44%的非人类身份凭证来源于公开代码库和协作平台,这表明网络安全防护尤为重要。

快速验证:在凭证被暴露后的9-17分钟内,攻击者立即执行初始 API调用,以评估其账户的价值。此阶段的关键在于避免触发安全措施,攻击者通常会选择较不易被检测的调用路径。

模型枚举:一旦获得有效凭证,攻击者会通过 AWS Bedrock 等平台执行请求,以列出可利用的LLM。这一过程可以助力攻击者分析出更为脆弱的攻击目标。

利用:在此阶段,攻击者会频繁请求 InvokeModel 操作,研究人员在模拟环境中发现,攻击者每小时能够进行超过1200次的未经授权推理尝试。最近,网络犯罪集团 Storm-2139 便是利用这种手法成功攻击了 Microsoft Azure AI 客户,盗取了重要的API密钥,从而生成了大量不当的暗网内容。

未受控制的LLMjacking会导致多种严重的后果。首先是 成本滥用,一个拥有Bedrock访问权限的受损非人类身份,每天可能导致高达46000美元的未经授权推理费用。此外,数据泄露也成为了常见风险,研究显示,在22%的事件中,攻击者泄露了模型配置和训练数据的元数据。不仅如此,声誉损害往往是最后,却也是最难以修复的一环。许多企业面临着因安全泄露而受到的公众信任危机。

为了有效应对这种新型的网络安全威胁,专家们提出了若干缓解策略,包括但不限于:

  1. 实时检测和监控:对非人类身份的活动进行实时监控,及时发现异常情况。
  2. 密钥的自动化轮换:实施定期自动化的密钥轮换策略,以降低凭证被泄露带来的风险。
  3. 最小权限原则:强制执行最小权限原则,确保每个身份只获得执行特定功能所需的最小权限,以减少风险暴露。
  4. 监控API活动:对所有的API活动进行监控,及时发现和应对异常流量。
  5. 安全教育:对开发人员进行系统的安全管理培训,确保他们了解如何安全管理非人类身份。

随着互联网环境的日益复杂,泄露的凭证在 20分钟内 便可被黑客利用,实时密钥扫描和自动轮换不再是可选择的保护措施,而是当前网络安全防护中的关键环节。企业在设计和实施AI系统时需高度重视安全问题,以确保其数据的安全性与系统的可靠性。

因此,针对AI领域的安全性问题,各方对此应引起足够重视,通过强化基础设施的安全性,制定综合的风险管理策略,以预防潜在的网络攻击,保护企业和用户的信息安全。在这种情况下,网络安全不仅是IT部门的责任,更是每一位用户的责任。在数字经济时代,保护个人隐私和数据安全,应当成为每一个企业和用户的共同目标。


[注意]看雪招聘,专注安全领域的专业人才平台!

收藏
免费 0
支持
分享
最新回复 (0)
游客
登录 | 注册 方可回帖
返回