36氪 - 科技频道 01月23日
OpenAI新研究:o1增加推理时间就能防攻击,网友:DeepSeek也受益
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI最新研究表明,增加推理时计算量能显著提升大语言模型面对对抗攻击的稳健性,无需进行对抗性训练。这项研究针对推理模型的特性,考察了多种攻击面,包括many-shot攻击、soft token攻击、think less攻击等。实验结果显示,随着推理时间的增加,模型抵御攻击的成功率普遍提高。即使在更强大的攻击下,增加推理时间仍然能显著提升防御力。研究还揭示了推理时计算的两面性,攻击者可能诱导模型陷入无效思考循环。这项研究对大语言模型的安全性具有重要意义,并为未来的攻防研究提供了新的方向。

💡OpenAI研究发现,增加推理时计算能显著提高大语言模型对抗攻击的稳健性,无需对抗训练。

🎯研究考察多种攻击面,包括many-shot攻击、soft token攻击、think less攻击等,发现增加推理时间普遍能降低攻击成功率。

🤔Think less攻击和Nerd-sniping攻击揭示了推理时计算的两面性,攻击者可能利用模型思考过多或过少。

🛡️实验证明,即使在针对网页浏览等复杂任务的攻击中,增加推理时间也能有效提升模型的防御能力。

OpenAI的新Scaling Law,含金量又提高了。

像o1这样的推理模型,随着思考时间的延长,面对对抗性攻击会变得更加稳健

随着大语言模型被越来越多地赋予Agent能力,执行现实世界的任务,模型被对抗攻击的风险也与日俱增

特别是OpenAI官方Agent“Operator”发布在即,现在放出这样一个研究,是否是想让外界更放心一些呢?

而目前主流的“对抗性训练”防御方法,有几个缺点:

依赖先验知识,需要了解对手的攻击方式。

要交“安全税”,在稳健性和模型能力之间取舍。

现在OpenAI实验证明,在不做对抗性训练的情况下,只要增加推理时计算,模型的对抗稳健性就能显著提升,在多个任务上都得到了验证。

这项新研究,共同一作中包括仅剩的联创之一Wojciech Zaremba

另一位共同一作Boaz Barak表示“ 我们没有‘解决’对抗稳健性问题……但我对未来方向感到兴奋”。

针对推理模型的新攻防战

针对推理模型特性,团队在实验中考察了几种的“攻击面”(attack surfaces):

Many-shot攻击:攻击者在提示中提供大量上下文示例,攻击资源量由提供的tokens数量衡量。

Soft token攻击:攻击者可以直接操纵embedding向量,通过梯度下降优化token来达到对抗目的。这是个强有力但不太现实的白盒攻击。

Think less攻击(想太少):这种新型攻击旨在降低模型的推理时计算量,从而增加其犯错概率。

Nerd-sniping(狙击书呆子):当模型陷入不必要的“深思熟虑”,在无谓的地方耗费算力时,反而更容易受到攻击。

人类/AI红队攻击:请专家或AI组成红队通过人机交互,针对性探索潜在的prompt注入漏洞。

多模态输入对抗攻击:针对图像分类任务,使用特定的对抗图像数据集进行攻击。

在大多数实验里,随着推理时计算的增加,模型抵御攻击的成功率都在提高。

举几个例子:

下面几张图中,Y轴是攻击者的资源量,X轴是推理时间计算量。随着攻击者资源的增加,其成功概率也会增加。

但对于每固定数量的攻击者资源,成功的概率会随着模型在推理时花费更多的计算而下降。

数学问题的many-shot攻击下,攻击方目标包括要求模型无论如何输出42,输出正确答案+1、或正确答案x7。

但随着推理算力增加,攻击成功率最终趋于0。

智能体网页浏览任务中,通过在网站注入恶意指令来攻击,增加推理时计算后,攻击成功率也降为0。

即使更强大的攻击下,增加更多的推理时间还是能显著提升防御力。

论文对几种新颖的攻击方式做了额外分析。

Think less攻击,主要是o1-mini比较容易中招,o1-preview防御能力还可以。

Nerd-sniping攻击,模型在某些实例上花费异常大的推理时间计算时,攻击成功率可能更高,表明模型可能会陷入无效率的思考循环。

尽管如此,研究者也指出,目前的方法在以下几个方面有局限:

研究仅涉及有限的任务和计算缩放范围,在面对利用策略模糊性或漏洞的攻击时,增加计算量可能无效

“think less”和“nerd sniping”攻击也揭示了推理时计算的两面性,攻击者可以诱导模型想太多或想太少。

One More Thing

对于这项针对推理大模型特性的研究,有创业者从不一样的角度思考:

那么DeepSeek-R1系列也可以从中受益呗?

论文地址:https://cdn.openai.com/papers/trading-inference-time-compute-for-adversarial-robustness-20250121_1.pdf

参考链接:

[1]https://openai.com/index/trading-inference-time-compute-for-adversarial-robustness/

[2]https://x.com/boazbaraktcs/status/1882164218004451334

本文来自微信公众号“量子位”,作者:梦晨 ,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI 大语言模型 对抗攻击 推理时间 模型稳健性
相关文章