36kr-科技 04月22日 17:08
3D高斯泼溅算法大漏洞:数据投毒让GPU显存暴涨70GB,甚至服务器宕机
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一篇ICLR 2025 Spotlight论文揭示了3D Gaussian Splatting (3DGS)技术中存在的安全隐患。研究者们发现,通过对输入图像进行微小改动,攻击者可以显著增加3DGS模型的训练时间和显存占用,甚至导致系统崩溃。这种名为Poison-Splat的攻击具有隐蔽性和可迁移性,对LumaAI、Spline 和 Polycam 等3D建模平台构成了潜在威胁,凸显了当前3D重建系统中一个未被重视的安全盲区。

💥 3D Gaussian Splatting (3DGS)因其高效的渲染和逼真的效果,已成为3D视觉领域的新宠,广泛应用于LumaAI、Spline 和 Polycam等平台。

⚠️ Poison-Splat攻击通过对输入图像进行微小扰动,能够显著增加3DGS模型的计算成本,包括训练时间和GPU显存占用。

🔍 攻击的核心在于利用3DGS的自适应特性,即模型会根据图像复杂度调整高斯点的数量,从而影响计算资源的消耗。

💡 研究者提出了针对Poison-Splat攻击的三大创新策略,包括引入代理模型、利用图像“非光滑性”诱导高斯密度增长以及约束扰动强度,以提升攻击的隐蔽性。

🛡️ 实验结果表明,Poison-Splat攻击能使显存占用飙升20倍,训练时间增加5倍,即使在隐蔽性约束下,攻击效果依然显著,对3D服务商构成了真实的威胁。

随着3D Gaussian Splatting(3DGS)成为新一代高效三维建模技术,它的自适应特性却悄然埋下了安全隐患。在本篇 ICLR 2025 Spotlight 论文中,研究者们提出首个专门针对3DGS的攻击方法——Poison-Splat,通过对输入图像加入扰动,即可显著拖慢训练速度、暴涨显存占用,甚至导致系统宕机。这一攻击不仅隐蔽、可迁移,还在现实平台中具备可行性,揭示了当前主流3D重建系统中一个未被重视的安全盲区。

引言:3D视觉的新时代与未设防的后门隐患

过去两年,3D视觉技术经历了飞跃式发展,尤其是由 Kerbi等人在2023年提出的3D Gaussian Splatting (3DGS),以其超高的渲染效率和拟真度,一跃成为替代NeRF的3D视觉主力军

你是否用过 LumaAI、Spline 或者 Polycam 之类的应用上传图片生成三维模型?它们背后很多就用到了3DGS技术。3D高斯泼溅无需繁重的神经网络,仅靠一团团显式的、不固定数量的3D高斯点即可构建逼真的三维世界。

但你知道吗?这个看起来高效又灵活的“新王者”,居然隐藏着一个巨大的安全隐患——只要改动图片的细节,就能让系统在训练阶段直接崩溃!

来自新加坡国立大学和昆仑万维的研究者在 ICLR 2025上的Spotlight论文《Poison-Splat: Computation Cost Attack on 3D Gaussian Splatting》中,首次揭示了这一致命漏洞,并提出了首个针对3DGS计算复杂度的攻击算法:Poison-Splat

图一:干净(左)与Poison-Splat攻击后(右)的输入图像、三维高斯点云,以及GPU显存、训练时间和渲染速度的显著变化。这里的每张图片由像素表征(左上)和3DGS高斯点的可视化(右下)拼接而成,更好地展示其二维像素空间和三维高斯空间的变化。

问题背景:强大的模型“适应性”是优点,还是漏洞?

图二:NeRF (左) 和 3D Gaussian Splatting (右) 分别引领了3D视觉的一个时代,但它们的核心思想却截然不同。NeRF (图a) 使用神经网络对三维场景隐式建模,其复杂度和计算成本由训练者通过超参数人为指定;而 3DGS (图b) 使用不固定数量的三维高斯对场景显式建模,其复杂度和计算成本会根据需要建模的三维内容进行自适应调整。

3D Gaussian Splatting 相比于NeRF最大的区别之一,就是它拥有自适应的模型复杂度:

本质上,3DGS会智能地根据建模场景“细节多不多”来决定要分配多少计算资源。

图三:计算成本(GPU显存占用、训练效率)、高斯点数量、数据集图像复杂度之间的强正相关关系。对于不同的数据集场景,(a) GPU显存占用和高斯点数量的关系;(b)训练耗时和高斯点数量的关系;(c) 高斯点数量和图片复杂程度(以Total Variation Score衡量)的关系。

这原本是一个很聪明的设计, 3DGS依靠其强大的适应性,可以让每一个参与训练的高斯点都“物尽其用”。

但问题来了,如果有人故意上传“带毒的复杂图像”,会发生什么?

揭秘3DGS的复杂度漏洞:Poison-Splat攻击算法

攻击目标:GPU占用率和训练时间

设计一种扰动输入图像的方法,将经过扰动的图像作为3DGS的输入后,能够大幅增加训练成本(GPU显存和训练时长)。

问题建模:max-min双层优化问题

我们可以将整个攻击建模成一个 max-min双层优化(bi-level optimization)问题:

这类双层优化问题通常都极难直接求解。为此,研究者们提出了三大创新策略:

核心技术1:引入“代理模型”(proxy model) 作为内层近似器

核心技术2:利用图像“非光滑性”诱导高斯密度增长

核心技术3:约束扰动强度,提升攻击隐蔽性

图四:在约束条件下,攻击者的代理模型产生的变化被限制在像素扰动预算内,可以隐蔽地增加三维重建需要的计算消耗。

图五:无约束攻击中,攻击者使用的代理模型的三维表征不受限制地复杂化,使三维重建所需的计算成本大大增加。

实验结果:最高让训练时间翻倍、显存飙升20倍

研究者在多个公开3D数据集(NeRF-Synthetic、Mip-NeRF360、Tanks and Temples)上评估了攻击效果。实验结果证实,对于危害最大的无限制攻击,其攻击效果令人震惊。在被攻击的最差3D场景下:

图六:当攻击者可以无限制地对输入图像进行改动,可以带来极高的额外计算开销,对服务提供商造成重大的资源浪费。

就算对输入图片做了隐蔽性约束,当图片中每个像素的扰动都不得和干净图片偏离16个像素值时,其攻击效果仍然不容小觑,且隐蔽性更高,更加难以识别和检测:

图七:在像素值扰动不超过16/255的约束下,部分场景能使显存消耗增高超过8倍,以至超过常见24GB显卡的显上限。

此外,攻击对黑盒模型同样有效(如 Scaffold-GS),表明它不仅“杀伤力强”,还具备“跨平台传染性”。

图八:即使攻击者无法事先知道服务商具体的模型和参数,黑盒攻击也能产生效果。当攻击者针对原始3DGS算法进行Poison-splat攻击,产生的投毒数据对于Scaffold-GS这样的变体模型仍然有很好的攻击效果。

实际风险:这不是学术游戏,而是真实威胁

现实中,很多3D服务商(如 Polycam、Kiri)都支持用户自由上传图像或视频进行建模。

这意味着:

图九:原始图像、约束攻击、无约束攻击作为输入时的计算代价对比。横坐标是3DGS模型拟合输入图片需要的训练时长,纵坐标是训练过程中GPU实时显存消耗。相比于原始图像,poison-splat攻击会大幅增加GPU显存占用和训练时长,让系统负载飙升。

意义与贡献:为何要“攻击”3DGS?

提出风险不是在“捣乱”,而是在为AI系统打预防针。这项工作是:

与此同时,研究者们也揭示了简单的防御(如限制高斯数量)无法有效应对攻击,且会严重降低模型重建精度,导致模型“学不好”,服务方依然无法交付高质量 3D 场景。

图十:简单限制高斯点总量并不是理想的防御。虽然能限制资源消耗,但会严重影响3D重建的服务质量。如何设计更加智能的防御仍然是一个开放问题。

这些结果预示着,如果 3D 重建厂商没有相应防护,一旦有人“恶意上传”或“篡改”用户数据,系统很可能出现显存不足或训练无效。

目前该研究已将全部代码、数据处理流程、可复现实验开源,感兴趣的小伙伴可以在Github上查看

在空间智能、世界模型更加需要依赖三维视觉的今天,讨论其算法的安全性也变得越来越重要。在通往更强大AI的道路上,我们需要的不仅是性能的飞跃,还有安全的护栏。希望这篇工作能唤起大家对3D AI系统安全性的重视。

论文链接:https://arxiv.org/pdf/2410.08190GitHub:https://github.com/jiahaolu97/poison-splat

本文来自微信公众号“量子位”,作者:梦晨,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

3D Gaussian Splatting Poison-Splat攻击 3D建模 AI安全
相关文章