安全客周刊 2024年08月27日
研究人员在 MLOps 平台中发现了 20 多个供应链漏洞
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

网络安全研究人员警告机器学习(ML)软件供应链中存在安全风险,他们在 20 多个可能被利用以 MLOps 平台为目标的漏洞中发现了固有缺陷和实现缺陷,这些缺陷可能导致从任意代码执行到加载恶意数据集的严重后果。

💥 固有漏洞:这些漏洞源于目标技术中使用的底层格式和流程。例如,利用 ML 模型支持在加载时自动执行代码的事实(例如,Pickle 模型文件)来运行攻击者选择的代码。攻击者还可以通过加载包含恶意代码的数据集,利用某些数据集格式和库的漏洞来进行攻击。

💻 实现漏洞:这些漏洞与 MLOps 平台中缺乏身份验证有关,可能允许威胁行为者通过滥用 ML Pipeline 功能来获得代码执行功能。例如,Anyscale Ray 中的漏洞(CVE-2023-48022)被经济动机的对手利用来部署加密货币矿工。

🛡️ 防御措施:为了保护 MLOps 平台,研究人员建议确保运行模型的环境完全隔离,并针对容器逃逸进行强化。此外,他们建议对所有 ML 库中的 XSS 漏洞进行评估,并将它们视为潜在的任意代码执行,因为数据科学家可能会将这些库与 Jupyter Notebook 一起使用。

🕵️‍♀️ 攻击威胁:除了固有漏洞和实现漏洞外,研究人员还发现,训练数据集可能被恶意代码污染,最终目标是诱骗大型语言模型 (LLM) 生成易受攻击的代码。

🔐 总结:MLOps 平台的安全性至关重要,因为它们在机器学习模型的开发和部署中发挥着关键作用。研究人员发现的这些漏洞突出了确保这些平台安全的重要性,并强调了需要采取适当的措施来缓解这些风险。

发布时间 : 2024-08-27 11:03:45

在发现 20 多个可能被利用以 MLOps 平台为目标的漏洞后,网络安全研究人员警告机器学习 (ML) 软件供应链中存在安全风险。

这些漏洞被描述为固有和基于实现的缺陷,可能会产生严重的后果,从任意代码执行到加载恶意数据集。

MLOps 平台提供了设计和执行 ML 模型管道的能力,模型注册表充当存储库,用于存储和版本训练的 ML 模型。然后,这些模型可以嵌入到应用程序中,或者允许其他客户端使用 API(也称为模型即服务)查询它们。

“固有漏洞是由目标技术中使用的底层格式和流程引起的漏洞,”JFrog 研究人员在一份详细报告中说。

固有漏洞的一些示例包括滥用 ML 模型来运行攻击者选择的代码,方法是利用模型支持在加载时自动执行代码的事实(例如,Pickle 模型文件)。

此行为还扩展到某些数据集格式和库,这些格式和库允许自动执行代码,因此在仅加载公开可用的数据集时,可能会为恶意软件攻击打开大门。

另一个固有漏洞实例涉及 JupyterLab(以前称为 Jupyter Notebook),这是一个基于 Web 的交互式计算环境,使用户能够执行代码块(或单元)并查看相应的结果。

“许多人不知道的一个固有问题是在 Jupyter 中运行代码块时处理 HTML 输出,”研究人员指出。“你的 Python 代码的输出可能会发出 HTML 和 [JavaScript],你的浏览器会很高兴地呈现它们。”

此处的问题在于,JavaScript 结果在运行时不会从父 Web 应用程序进行沙盒化,并且父 Web 应用程序可以自动运行任意 Python 代码。

换句话说,攻击者可以输出恶意 JavaScript 代码,以便在当前 JupyterLab 笔记本中添加一个新单元格,将 Python 代码注入其中,然后执行它。在利用跨站点脚本 (XSS) 漏洞时尤其如此。

为此,JFrog 表示,它在 MLFlow 中发现了一个 XSS 缺陷(CVE-2024-27132,CVSS 评分:7.5),该漏洞源于在运行不受信任的配方时缺乏足够的清理,导致客户端代码在 JupyterLab 中执行。

“我们从这项研究中得出的主要收获之一是,我们需要将 ML 库中的所有 XSS 漏洞视为潜在的任意代码执行,因为数据科学家可能会将这些 ML 库与 Jupyter Notebook 一起使用,”研究人员说。

第二组缺陷与实现弱点有关,例如 MLOps 平台中缺乏身份验证,可能允许具有网络访问权限的威胁行为者通过滥用 ML Pipeline 功能来获得代码执行功能。

这些威胁不是理论上的,出于经济动机的对手滥用这些漏洞,正如在未修补的 Anyscale Ray(CVE-2023-48022,CVSS 评分:9.8)的情况下观察到的那样,以部署加密货币矿工。

第二种类型的实现漏洞是针对 Seldon Core 的容器逃逸,它使攻击者能够超越代码执行,在云环境中横向移动,并通过将恶意模型上传到推理服务器来访问其他用户的模型和数据集。

将这些漏洞链接起来的最终结果是,它们不仅可能成为渗透和传播组织内部的武器,而且还会破坏服务器。

研究人员说:“如果你正在部署一个允许模型服务的平台,你现在应该知道,任何可以提供新模型的人实际上也可以在该服务器上运行任意代码。“确保运行模型的环境完全隔离并针对容器逃逸进行强化。”

在披露这一消息之际,Palo Alto Networks Unit 42 详细介绍了开源 LangChain 生成式 AI 框架中现已修补的两个漏洞(CVE-2023-46229 和 CVE-2023-44467),这些漏洞可能分别允许攻击者执行任意代码和访问敏感数据。

上个月,Trail of Bits 还揭示了检索增强一代 (RAG) 开源聊天机器人应用程序 Ask Astro 中的四个问题,这些问题可能导致聊天机器人输出中毒、文档摄取不准确和潜在的拒绝服务 (DoS)。

正如人工智能驱动的应用程序中暴露出安全问题一样,人们也在设计技术来毒害训练数据集,最终目标是诱骗大型语言模型 (LLM) 生成易受攻击的代码。

“与最近将恶意负载嵌入代码的可检测或不相关部分(例如评论)的攻击不同,CodeBreaker 利用 LLM(例如 GPT-4)进行复杂的负载转换(不影响功能),确保用于微调的中毒数据和生成的代码都可以逃避强大的漏洞检测,”康涅狄格大学的一组学者说。

商务合作,文章发布请联系 anquanke@360.cn

安全客

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MLOps 机器学习 漏洞 安全风险 软件供应链
相关文章