机器之心 07月21日 22:11
多模态大模型存在「内心预警」,无需训练,就能识别越狱攻击
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

近年来,视觉语言大模型(LVLMs)如GPT-4V、LLaVA等在图文交互中表现出色,但也面临越狱风险。香港中文大学MMLab与淘天集团未来生活实验室的研究者们提出了名为HiddenDetect的新方法,能够无需训练即可有效检测LVLMs的越狱行为。该方法的核心在于,即使模型表面上生成了不当内容,其内部隐藏状态仍保留拒绝信号。HiddenDetect通过分析模型各层隐藏状态与“拒绝语义向量”的余弦相似度,捕捉模型对不安全输入的敏感度。研究发现,不同模态的输入会激活不同的安全通路,且中间层比输出层对越狱信号更敏感。该方法已在多项实验中验证了其高检测效果、鲁棒性和泛化能力,为提升多模态大模型安全性提供了新思路。

🎯 **HiddenDetect:创新的无训练越狱检测方法** 核心作者团队来自香港中文大学MMLab与淘天集团未来生活实验室,提出了一种名为HiddenDetect的全新越狱检测方法。其关键创新在于无需进行额外的模型训练,而是通过分析模型自身的激活模式来识别潜在的越狱风险。这种方法依赖于一个核心发现:即使视觉语言大模型(LVLMs)在表面上被诱导生成不当内容,其内部的隐藏状态仍然会保留拒绝不安全输入的信号,尤其是在模型的中间层,这些信号比最终输出更为敏感和早期。

💡 **基于“拒绝语义向量”的检测机制** HiddenDetect方法的核心技术是通过构建一个“拒绝语义向量”(RV)来量化模型的拒绝行为。研究者们首先从模型拒绝回答不安全输入的响应中提取高频出现的拒绝词汇(如“sorry”、“unable”),并将其转化为one-hot编码的向量。随后,将模型各层的隐藏状态投影回词汇空间,计算其与RV的余弦相似度,生成一个向量F,该向量刻画了模型在不同层级对拒绝语义的激活强度。实验表明,安全输入和不安全输入的F向量在模型层级分布上存在显著差异,不安全输入在中间层激活强度更高。

🛤️ **模态差异化安全感知通路** 研究发现,LVLMs在处理不同模态输入时,其安全感知和拒绝机制的激活路径是不同的。通过计算“拒绝差异向量”(FDV),即不安全输入与安全输入在各层激活强度之差,研究者们发现文本输入和图文联合输入的FDV曲线在模型层级分布上存在差异。具体来说,文本输入的拒绝激活差异在早期层级迅速增强,而图文输入的响应则相对滞后且强度较弱,这表明视觉信息的引入在一定程度上削弱了模型早期安全响应能力,使得越狱攻击更容易成功。

📈 **识别关键安全敏感层** HiddenDetect方法能够有效识别出模型中对安全性最敏感的关键层。通过分析FDV值,研究者发现那些FDV显著高于末层的中间层,通常具备更强的安全判别能力。通过累积这些关键层上的拒绝激活强度,可以构建一个高效、无需训练且泛化能力强的越狱检测机制。该方法在多个主流LVLM模型(如LLaVA、CogVLM、Qwen-VL)和多种攻击类型(包括纯文本攻击和图文联合攻击)上进行了广泛评估,结果显示其在保持高检测效果的同时,展现出良好的鲁棒性和泛化能力。


多模态大模型崛起,安全问题紧随其后


近年来,大语言模型(LLMs)的突破式进展,催生了视觉语言大模型(LVLMs)的快速兴起,代表作如 GPT-4V、LLaVA 等。通过将图像与文本深度融合,LVLMs 在图文问答、视觉推理等任务中大放异彩。但与此同时,一个严峻的问题也悄然浮现 ——LVLMs 比起纯文本模型更容易被 “越狱”。攻击者仅需通过图像注入危险意图,即使搭配直白的指令,模型也往往难以拒绝。


为应对这一挑战,已有方法尝试用跨模态安全微调、系统提示词设计或外部判别模块来加固模型防线。然而,这些方法普遍存在训练成本高、泛化能力差、甚至误判正常输入的风险。


模型其实 “心里有数”:越狱时隐藏状态在报警


来自香港中文大学 MMLab 与淘天集团未来生活实验室的研究者提出了 HiddenDetect—— 种无需训练的越狱检测新方法。核心作者包括姜一雷,谭映水,高欣颜,岳翔宇。


他们的核心发现是:即使 LVLMs 表面上被越狱、生成了不当内容,其隐藏状态中依然保留着拒绝的信号。特别是在模型的中间层,这些信号往往比最终输出更早、更敏感地 “察觉” 到潜在风险。更有趣的是,文字输入和图像输入会激活完全不同的 “安全通路”,也就是说,LVLMs 对不同模态的 “危险感知” 机制是有区分的。


论文已被 ACL2025 main conference 收录。



项目开源 github 链接:https://github.com/leigest519/hiddendetect

arxiv 链接:https://arxiv.org/abs/2502.14744


从 “拒绝语义” 中解码多模态大模型的安全感知


图 1: 基于模型自身激活模式的多模态越狱检测方法。


首先,研究者从模型拒绝回答不安全输入的响应中,统计出一组高频出现的、具有明确拒绝语义的 token(如 “sorry”, “unable”, “unfortunately” 等),并利用 one-hot 编码的方式,在词汇空间中构造出一个 “拒绝语义向量” (RV),作为模型拒绝行为的表示。随后,研究者将模型各层的隐藏状态通过反嵌入层投影回词汇空间,并计算出其与 RV 的余弦相似度,以此衡量当前层所包含的拒绝语义强度。该过程会生成一个长度等于模型层数的向量 F,用于刻画模型在各层对拒绝语义的激活强度。



实验结果显示,F 在安全与不安全输入之间存在显著差异:对于安全样本,F 的整体数值普遍较低;而对于不安全输入,F 通常在中间层逐步升高至峰值,随后在最后几层出现明显回落。此外,无论输入是否安全,F 在最后一层的数值仍普遍高于倒数第二层,表明模型在最终输出前仍保留一定的拒绝倾向。


为进一步分析模型的安全响应机制,研究者构建了三个小样本输入集,分别用于衡量模型在不同类型输入下的拒绝激活表现。其中,安全输入集由无害样本组成,既包含纯文本输入,也包含图文组合输入;另两个不安全输入集则分别对应纯文本攻击样本和图文联合的攻击样本。



如图 2 所示,每组样本都计算出其对应的拒绝强度向量 F,并将不安全输入的 F 与安全输入的 F 相减,得到 “拒绝差异向量” (FDV),用于衡量模型在处理不安全输入时相较于安全输入所产生的激活差异。



图 2: 通过少样本分析方法,识别出模型中对安全最敏感的关键层。


模态不同,响应路径也不同


如图 3 所示,两种模态的 FDV 曲线均表明模型在部分中间层对拒绝信号的响应强度显著高于输出层,说明这些中间层对安全性更加敏感。具体而言,文本输入的拒绝激活差异在较早的层级便迅速增强,而图文输入的响应整体偏后,且强度相对较弱,说明视觉模态的引入在一定程度上削弱了模型拒答机制的早期响应能力。


图 3:纯文本样本和跨模态样本的 FDV 曲线。


实验还发现如果模型对拒绝信号的强激活集中在更靠后的层,或者整体激活强度变弱,越狱攻击就更容易成功。有趣的是,研究者发现,仅仅为一条文本攻击提示加上一张图片,就可能让模型的拒绝反应变得延迟,原本中层就能激活的拒绝信号被 “推迟” 到了后层,整体响应强度也降低,从而削弱了模型的安全防护能力。


最终,该小样本分析方法通过 FDV 值成功定位了模型中对不同模态输入安全性最敏感的层。研究者将模型最后一层的差异值作为参考基线,因其对部分不安全输入缺乏足够辨别力;而那些 FDV 显著高于末层的中间层,通常具备更强的安全判别能力。



进一步地,只需累积在这些关键层上的拒绝激活强度,便可有效识别潜在的不安全样本,从而构建出一个高效、无需训练、具备良好泛化能力的越狱检测机制。



实验结果


研究团队在多个主流 LVLM(包括 LLaVA、CogVLM 和 Qwen-VL)上系统评估了所提出的检测方法,涵盖纯文本越狱(如 FigTxt)和跨模态图文攻击(如 FigImg 和 MM-SafetyBench)等多种攻击类型。此外,研究者还在 XSTest 数据集上测试了方法的稳健性。该数据集包含一些安全但易被误判的边界样本,常用于评估检测方法是否过度敏感。实验结果表明,该方法在保持高检测效果的同时,具备良好的鲁棒性和泛化能力。



可视化


图 4:每一层隐藏状态中最后一个 token 的 logits 被投影到由拒绝向量(RV)及其正交方向构成的语义平面。


结论与展望


安全是大模型走向真实世界应用过程中必须优先考虑的问题。HiddenDetect 提出了一种无需训练、基于激活信号的检测方法,为提升多模态模型的安全性提供了新的思路。该方法结构轻量、部署灵活,已在多个模型与攻击类型中展现出良好效果。尽管如此,该方法目前仍主要聚焦于风险提示,尚未对模型行为产生直接调控。未来,研究团队希望进一步拓展方法能力,并深入探索模态信息与模型安全性的内在关联,推动多模态大模型朝着更可靠、更可控的方向发展。


作者团队来自淘天集团算法技术 - 未来实验室团队和香港中文大学 MMLab。未来生活实验室致力于建设面向未来的生活和消费方式,进一步提升用户体验和商家经营效果。实验室聚焦大模型、多模态等 AI 技术方向,致力于打造大模型相关基础算法、模型能力和各类 AINative 应用,引领 AI 在生活消费领域的技术创新。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com



文章原文

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

多模态大模型 视觉语言模型 模型安全 越狱检测 HiddenDetect
相关文章