HackerNews 03月06日
黑客利用暴露的云凭证,仅 19 分钟劫持 AI 大模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

最新研究揭示,网络攻击者正利用暴露的云凭证快速劫持企业AI系统,这种攻击被称为LLMjacking。攻击主要针对非人类身份(NHIs),如API密钥、服务账户和机器凭证,绕过传统安全控制,利用被盗的生成式AI访问权限进行非法牟利。攻击者通过自动化脚本扫描公共代码库和论坛,检测有效凭证,并在几分钟内进行初步API调用评估账户价值。一旦攻破,入侵者会列举可访问的大型语言模型并进行漏洞利用,造成巨大的经济损失、数据泄露和声誉损害。实时监控NHIs、实施自动化密钥轮换和最小权限原则是关键的缓解策略。

🔑攻击者利用自动化的机器人扫描公共代码库和论坛,使用Python脚本检测有效的云凭证,其中44%的非人类身份是通过代码库和协作平台泄露的,这为LLMjacking攻击提供了最初的入口。

⏱️攻击者在凭证暴露后的9-17分钟内执行初始API调用(如GetCostAndUsage)来评估账户价值,并避免使用可预测的调用(如GetCallerIdentity)以逃避检测,这种快速验证手段增加了防御的难度。

💰一旦获得访问权限,攻击者可以通过AWS Bedrock执行GetFoundationModelAvailability请求,列出可访问的大型语言模型(LLM),并进行自动化的InvokeModel尝试,从而产生高额的未授权推理费用,每天可能高达46000美元。

🛡️为了应对LLMjacking攻击,企业需要采取一系列缓解策略,包括检测并实时监控NHIs、实施自动化的密钥轮换、强制执行最小权限原则、监控不寻常的API活动,以及对开发人员进行安全的NHI管理教育。

HackerNews 编译,转载请注明出处:

最新研究揭示,网络攻击者正利用暴露的云凭证,快速劫持企业的人工智能(AI)系统。这种攻击方式被称为 LLMjacking,主要针对非人类身份(NHIs),如 API 密钥、服务账户和机器凭证,以绕过传统安全控制并利用被盗的生成式 AI 访问权限进行非法牟利。

安全公司 Entro Labs 的研究发现,攻击者利用自动化的机器人扫描公共代码库和论坛,使用 Python 脚本检测有效凭证。一旦凭证被暴露,攻击者在 9 至 17 分钟内进行初步的 API 调用,如 GetCostAndUsage,以评估账户价值,同时避免使用可预测的调用如 GetCallerIdentity 来逃避检测。

Storm-2139 网络犯罪组织最近利用这种方法攻击了 Microsoft Azure AI 客户,窃取 API 密钥以生成暗网内容。取证日志显示,攻击者:

Entro 的模拟入侵表明攻击者将自动脚本与手动侦察相结合 ——63% 的初始访问使用 Python SDK,而 37% 使用 Firefox 用户代理通过 AWS 控制台进行交互式探索。

缓解策略

随着攻击者在不到 20 分钟内利用漏洞,实时秘密扫描和自动轮换不再是可选的安全措施,而是 LLM 时代的关键生存机制。

 


消息来源:Cybersecurity News 

本文由 HackerNews.cc 翻译整理,封面来源于网络;  

转载请注明“转自 HackerNews.cc”并附上原文

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

LLMjacking AI安全 云凭证 非人类身份
相关文章