智源社区 14小时前
OpenAI谷歌Anthropic罕见联手发研究!Ilya/Hinton/Bengio带头支持,共推CoT监测方案
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI、谷歌DeepMind、Anthropic等AI巨头联合多位专家,提出CoT监测概念,认为思维链是控制AI Agent安全的核心方法。思维链通过自然语言外显推理过程,可能提供独特的安全监测方式。然而,CoT监测也面临挑战,如模型可能隐藏推理过程、训练范式变化影响可读性等。研究呼吁将CoT可监测性纳入模型安全评估,并采用多监测层策略。

🔍思维链CoT是AI巨头提出的安全监测概念,通过自然语言外显推理过程,使AI Agent的关键计算过程可被监测。

📊CoT监测已在安全研究领域展现出多重价值,如检测模型不良行为、发现对齐偏离的早期信号、识别评估缺陷。

🚧CoT监测面临挑战,包括模型可能隐藏推理过程、训练范式变化导致语义偏移、过程监督可能扭曲模型决策逻辑等。

🔬研究者应系统性探索模型可监测性,将CoT可监测性纳入模型安全评估体系,并采用多监测层策略。

🤔不同巨头对CoT监测态度不一,OpenAI乐观其价值,Anthropic则担忧其可靠性,如模型可能隐藏真实思维过程。

难得难得,几大AI巨头不竞争了不抢人了,改联合一起发研究了。

而且还同时拉来了Hinton、Ilya、John Schulman几位大佬,一起为研究提供专家支持。

OpenAI、谷歌DeepMind、Anthropic带头,联合各企业非盈利组织公开发表了一篇立场文件。

一共40余位顶尖机构的合著者,包含图灵奖得主Yoshua Bengio、OpenAI 首席研究员Mark Chen、OpenAI首席科学家Jakub Pachocki、谷歌DeepMind联合创始人 Shane Legg也在内。

他们提出一个全新的概念:CoT监测,并认为这也许是控制AI Agent的核心方法,来保障前沿AI的安全性。

对于这种巨头集结起来探讨AI安全这种喜闻乐见的事情,各位大佬们随即赶来支持——

    Hinton:诺奖得主、始终倡导AI安全
    Ilya:OpenAI联创,创立的SSI估值320亿美元
    John Schulman:OpenAI联创,现已加入Mira新公司
    Samuel Bowman:在Anhtropic主要负责AI安全

与这一景象形成鲜明对比的,就是小扎豪掷百万乃至上亿美金的薪酬,从这三家巨头挖走顶尖研究人员。其中最抢手的人才正是那些构建AI Agent和推理模型的研究人员们。

而在这篇研究中,也仅有一位Meta的研究者,高级研究员Joshua Saxe,是有点那么个意思了嗷~

三大巨头联合声明:CoT提供了独特的安全机会

智能体的不透明性是其潜在风险的核心根源,如果能解读系统,那么风险管控就会变得更为可行。

这样一个逻辑下,他们将目光瞄准在了思维链CoT。

它通过提示模型think out loud,既能提升其能力,又使更多关键计算过程以自然语言形式呈现,也许能提供一种独特的安全方法。

而思维链CoT可被监测,关键原因主要有两点。

1、外显推理过程(think out loud)的必要性。

对于某些任务,模型需要将推理过程外化,因为没有 CoT,它们就无法完成任务。

比如将Transformer架构可视化,主要展示重点展示自回归采样过程中的信息流动。

图中蓝色箭头代表CoT作为工作记忆的运作方式:它是信息从深层向浅层回传的唯一通道。

这意味着在固定token数量的前提下,最长的信息流路径必须依赖CoT,认知序列再冗长都须经由CoT传递;多数信息交互脱离CoT将无法实现。
就像图示两个高亮节点间的信息传递,若绕过CoT则完全无法达成。

而只要模型持续以自然语言形式进行推理,且危害最大的风险行为往往需要复杂推理链条,这一特性就能帮助可靠地检测严重异常行为。

2、CoT在实践中往往是可监测的。

即使某些任务无需CoT即可完成,模型仍可能自发展示推理过程。

目前,CoT监测已在安全研究领域展现出多重价值,比如检测模型不良行为、发现对齐偏离的早期信号、识别评估缺陷。

虽然这种方式通常不够稳健,但通过分析其外显的思维轨迹(例如矛盾陈述或危险意图的早期征兆),仍能提供一定的风险预警能力。

不过CoT的可监测性可能高度依赖前沿模型的训练范式,未来可能通过以下途径弱化。

包括不限于RL规模化导致的语义偏移

当前推理模型依赖纯结果导向的RL训练,当计算规模大幅提升时,可能不再激励CoT的可读性。早期研究表明,基于结果奖励微调的模型会出现自然语言可读性退化。

还有CoT直接监督的悖论

纯结果导向RL仅奖励正确输出,不约束推理过程。而过程监督通过强制CoT简短、合规或风格统一,虽能提升安全性,却可能扭曲模型真实的决策逻辑。这一领域需权衡:过程监督能否在保持监测可信度的同时确保推理安全?

以及新型架构的挑战,像潜在空间连续推理模型,可能完全内化思考过程,使CoT监测失效。这种架构演进将从根本上剥夺CoT带来的安全优势。

谈完了CoT的潜在机遇和局限性,他们将落点落到当前AI研究员和开发者上。他们认为研究者应该系统性探索模型可监测性的决定因素,并且将CoT可监测性纳入模型安全评估体系。

最后,他们表示,所有的监测和监督方法都有局限性,会让一些错误行为不被察觉。因此,未来AI Agent的安全措施可能需要采用多个监测层,希望这些监测层具有不相关的失效模式。

CoT监测为前沿人工智能的安全措施提供了宝贵的补充,同时也了解到AI Agent如何做出决策的。然而,我们无法保证当前的可视程度会持续下去。

作者们怎么说?

有意思的是,虽然这次几家巨头一起联合,但他们关注的重点可能完全不同——

OpenAI很乐观,但Anthropic则有点焦虑了。

OpenAI:CoT监测已经呈现出价值

事实上,CoT监测已经呈现出价值。此次文章的合著者之一Bowen Baker分享了他们OpenAI 3月份的一篇研究,展示了如何通过 CoT 监测捕获代码中的奖励攻击。

他们用GPT-4o作为监测器,结果成功标记出了Agent试图破坏单元测试的例子。

另外,他们建议不要直接对前沿推理模型的CoT施加强大的优化压力,而应该对CoT进行不受限制的监测,不然该作弊的还是会作弊。

另一位合著者,OpenAI首席科学家Jakub Pachocki进一步阐述了这一功能的重要性。

我对思路链忠实性和可解释性的潜力感到非常兴奋。从 o1-preview 开始,它对我们推理模型的设计产生了重大影响。

Anthropic:CoT监测真的可靠吗?我很担心

而过往始终关注模型安全的Anthropic,他们自身研究更多是在对CoT监测可靠性的担忧上。

此前一项研究发现,推理模型通常会隐藏真实的思维过程,即时被明确要求展示工作内容。

在受控实验中,他们模型提供了关于正确答案的微妙提示,并测量了模型在推理过程中承认使用这些提示的频率。

结果令人担忧——Claude 3.7 Sonnet 仅 25% 提到了提示,而 DeepSeek的R1模型则高达 39%。

当提示涉及可能存在问题的信息时,例如告诉模型它们“未经授权访问了系统”,忠诚度会进一步下降。

模型通常会为自己的答案编造精心设计的错误理由,而不是承认自己使用了可疑的捷径。

而且另外一项研究证明,CoT监测这一方式,窗口可能已经比最初预想的要窄了。

风险很高,时间紧迫,所以大家应该行动起来。

参考链接:
[1]https://techcrunch.com/2025/07/15/research-leaders-urge-tech-industry-to-monitor-ais-thoughts/
[2]https://openai.com/index/chain-of-thought-monitoring/
[3]https://www.anthropic.com/research/reasoning-models-dont-say-think

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

专属AI产品从业者的实名社群,只聊AI产品最落地的真问题  扫码添加小助手,发送「姓名+公司+职位」申请入群~
进群后,你将直接获得:
 👉 最新最专业的AI产品信息及分析 🔍 
 👉 不定期发放的热门产品内测码 🔥
 👉 内部专属内容与专业讨论 👂

🌟 点亮星标 🌟

科技前沿进展每日见

内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI安全 CoT监测 思维链 AI巨头 模型可监测性
相关文章