智源社区 2024年10月25日
找出9.9<9.11的真正原因:《圣经》!神经元干预可免重训练修复
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一个独立实验室团队 Transluce AI 开发了一个可解释性工具 Monitor,揭示了大模型为何在比较 9.9 和 9.11 大小的时候会出错。研究发现,大模型错误地将数字与月份、日期、重力以及《圣经》经文等概念关联起来,导致错误判断。通过抑制与这些概念相关的神经元,研究人员成功地提高了模型的准确率。这项研究表明,大模型的错误并非源于模型本身的缺陷,而是由于训练数据中存在偏差,导致模型将数字与无关概念联系起来。

🤔 Transluce AI 团队开发了一个名为 Monitor 的工具,可以揭示语言模型的内部计算过程,并允许用户对其进行控制。Monitor 通过预先编译的神经元描述数据库、实时界面、实时 AI 代码检查器和语义引导的调节来实现对模型的可解释性。

🔎 通过 Monitor,研究人员发现大模型在比较 9.9 和 9.11 大小时会出错,是因为模型将数字与月份、日期、重力以及《圣经》经文等概念关联起来,导致错误判断。研究人员通过抑制与这些概念相关的神经元,成功地提高了模型的准确率。

💪 Transluce AI 的研究表明,大模型的错误并非源于模型本身的缺陷,而是由于训练数据中存在偏差,导致模型将数字与无关概念联系起来。这项研究为理解和改进大模型提供了新的视角。

🚀 Transluce AI 作为一家非营利性研究实验室,旨在构建开源、可扩展的技术,以理解 AI 系统并引导它们服务于公共利益。团队的目标是创建世界级的 AI 系统理解工具,并利用这些工具推动建立可信赖的 AI 行业标准。

🌐 Transluce AI 的工作强调了对 AI 系统进行可解释性和可扩展性研究的重要性,以及建立可信赖的 AI 行业标准的必要性。通过理解 AI 系统的内部运作机制,我们可以更好地控制和利用这些强大的工具,使其更好地服务于人类。

🤝 Transluce AI 拥有来自 MIT、UC 伯克利、CMU 等顶尖高校的成员,以及来自 OpenAI 和谷歌大脑的前员工。该团队的研究成果将有助于推动 AI 技术的发展,并为构建更安全、更可靠的 AI 系统做出贡献。

🏆 Transluce AI 的研究揭示了大模型内部运作机制的复杂性,以及训练数据对模型性能的影响。这项研究对于理解和改进大模型具有重要意义,并为构建更可靠的 AI 系统指明了方向。

大模型分不清“9.9和9.11哪个更大”的谜团,终于被可解释性研究揭秘了!

而且简单到让人哭笑不得——

一个来自MIT、UC伯克利的独立实验室团队,开发了能抑制大模型体内某些(与具体概念相关的)神经元的AI工具。

他们发现,只要把与《圣经》经文、日期、重力等概念相关的神经元激活设为0,大模型立马能答对这道比较题。

单单是拿走《圣经》经文相关神经元,就可以让“9.9和9.11哪个更大”这个问题的准确率,提高21个百分点!

而且修复这个bug,既不需要重新训练模型,也不需要添加额外提示词。

网友看了过后哭笑不得:

救大命了,看完过后我觉得这些因素都挺明显的,但在此之前我从未朝这上面想过。

这家AI独立实验室名叫Transluce AI,团队成员也趁机悉数亮相,创始团队来自MIT、UC伯克利、CMU等顶尖高校。

其中还有OpenAI和谷歌大脑的前员工。

揭秘是什么让大模型说“9.8

大模型硬说9.9

直至今日,Claude-3.5-Sonnet和GPT-4o这样的顶尖模型,依旧固执地这样认为(或者出其他的错)

现在,背后原因浮出水面!

先说结论吧:

这与月份、日期、重力,以及《圣经》经文有关。

发现过程是酱紫的——

Transluce AI的研究人员针对这个著名问题,开发了一个新的技术应用Monitor

它是一个可解释性界面,可以揭示语言模型的内部计算过程,并允许用户对其进行控制。

遵循通用的可扩展理解方法, Monitor采用一系列AI驱动的工具,来帮助用户理解语言模型中的神经激活模式:

首先,一个预先编译的高质量神经元描述数据库

这个数据库包含通过将Transluce AI的AI驱动描述流程应用在LLaMA-3.1-8B中的所有MLP神经元。

之所以选择“神经元”这个单位,是因为它们最简单,并且表现良好。

其次,一个实时界面。

实时界面的作用是展示给定聊天对话中的重要概念,用户可以通过激活度(概念激发的强度)或归因度(概念对指定目标 token 的影响程度)来衡量重要性。

再者,一个实时AI代码检查器

它可自动识别出可能的虚假线索概念群集,例如在数字9.8上触发“9月8日”的神经元。

最后,一个语义引导的调节,根据自然语言输入,来增加或减少概念相关神经元集合的强度。

万事俱备,测试开始。

(有点点疑惑,展开测试过程时,研究人员把9.9替换成了9.8)

研究人员使用Monitor的归隐功能和实时AI代码检查器结合,发现——

9.8

一旦研究人员把与这几个概念有关的神经元移除,LLaMA就能正确地回答出这个问题了。

为了更深入地探讨这个问题,研究人员采用归因分析,不仅要知道哪些概念最为活跃,还要具体分析出是哪个(些)概念影响了LLaMA在“9.11是……”之后说出“最大”这个词。

团队用AI实时代码检查器发现了之前相同的两个聚类(cluster),以及与《圣经》相关的第三个聚类。

观察发现,这个聚类中的特定神经元与《圣经》经文相关;另外,如果将9.8和9.11解读为第9.8章节和第9.11章节,也会出现大模型比错大小的情况。

发现LLaMA中相当一部分的神经元和《圣经》有关后,团队在介绍文章里感慨:

面对这个情况,起初我们非常惊讶,但仔细一想又挺有道理的。
毕竟大多数与训练数据集都涵盖不少的《圣经》相关内容。

于是研究人员想了个办法解决这个问题。

他们先是通过在引导prompts中输入“圣经经文”,并按下“停用”。这个操作让与“圣经经文”具有最高语义匹配的500个神经元激活归零。

不试不知道,一试就发现,单单是移除《圣经》经文相关神经元,LLaMA回答这道题的准确率就能提升21%。

更进一步的,研究人员对两个数字相关日期及其相关事件也做了同样的处理。

完成上述步骤后,LLaMA就给出了正确答案:

9.8更大!

整体而言,通过将《圣经》经文、日期、手机版本这三个概念的神经元集合,然后关闭合并集中的神经元,这样一套干预流程下来,LLaMA回答这个问题的准确率达到了77%。

关于实验更多细节,欢迎大家查看本文末尾的原文直通车。

康康背后实验室

说完研究本身,可以聊聊项目背后的团队了。

Transluce AI,贼新鲜出炉,几个小时前刚刚宣布成立。

Transluce是透明度的意思,意味着通过某物的透光程度来揭示其本身的结构。

“今天的复杂AI系统难以理解,即使技术专家部署后也无法百发百中地预测其行为。”团队在官网上写下,“与此同时,AI被采用的速度快过历史上任何技术。”

也是因此,像Monitor这样用来检查和评估模型的工具非常有必要出现和存在。

Transluce AI给自己的定位是一个非营利性研究实验室,目标是构建开源、可扩展的技术,以理解AI系统并引导它们服务于公共利益。

Transluce AI表示,自己的目标是创建世界级的AI系统理解工具,并利用这些工具推动建立可信赖的AI行业标准。

为了在AI系统的能力和风险分析更加可靠,这些工具必须具有可扩展性和开放性。

关于可扩展性

AI的结果源于多个复杂数据流的交互:训练数据、内部表示、行为和用户交互。

目前理解AI的方法依赖于大量的人工研究工作(常被调侃有多少人工就有多少智能)

我们需要可扩展的方法,利用AI来辅助理解,通过训练AI Agent来理解这些复杂的数据源,向人类解释它们,并根据人类反馈修改数据。

关于开放性

构建AI系统的公司不能成为其安全性的主要裁定方,因为与商业优先事项存在利益冲突。

为了允许有意义的公众监督,审计AI系统的工具和流程应公开验证,对公众反馈做出响应,并可供第三方评估者使用,“世界上最优秀的人才应该审查这项技术并提高其可靠性”。

亮相第一天,除了Monitor外,Transluce AI同期放出了另外两个自家实例。

    LLaMA-3.1-8B-Instruct内部每个神经元描述的数据库,以及一个用于生成这些描述的细调解释模型的权重

    训练了一批通用型调查员语言模型

他们还表示,正在将团队方法扩展到前沿模型,以更优秀的Agent来帮助人类理解更复杂的系统。

具体来说,他们会结合团队的可观测性和启发式技术,使用户能够以可观测状态为条件指定搜索目标。

不过从长远来看,Transluce AI将构建通用的框架来理解任何复杂的数据流,包括训练数据和多个Agents之间的交互。

实验室团队成员

目前对外披露的Transluce AI创始成员大约有10人

分别是:

Jacob Steinhardt,联合创始人兼CEO。

同时,Jacob也是UC伯克利统计学和电子工程与计算机科学(EECS)助理教授,谷歌学术被引数超过20000。

他的研究方向主要面向确保ML系统能够被人类理解,以及与人类保持一致。

Jacob是斯坦福大学基础模型研究中心(CRFM)主任、著名AI大佬Percy Liang的学生。

他曾在博士后期间于OpenAI实习过。

Sarah Schwettmann,联合创始人之一。

她在自我介绍中表示,自己是一名在MIT计算机科学与人工智能实验室(MIT CSAIL)以及MIT-IBM Watson人工智能实验室的研究科学家。

Sarah在MIT拿下脑与认知科学博士学位,是两位十万引大神——Josh Tenenbaum和Antonio Torralba的学生。

她的主要工作是研究AI(以及之前在生物神经网络)中智能背后的表征。

此外,创始团队成员几乎均出自(或仍在读)于MIT、CMU、多伦多大学等大学。

其中,Dami ChoiDaniel D. Johnson都有在谷歌AI相关部门工作的经历;Neil Chowdhury曾担任过OpenAI预备队成员。

Erin Xie本科毕业于北京大学,后在2020年拿下CMU的人机交互硕士学位。

与此同时,图灵奖得主Yoshua Bengio、斯坦福AI大佬Percy Liang、耶鲁大学统计学和数据科学教授Jas Sekhon等,都是该AI独立实验室的顾问。

参考链接:
[1]
https://clearthis.page/?u=https://www.lesswrong.com/posts/BFamsq52ctyRziDgE/introducing-transluce-a-letter-from-the-founders
[2]https://transluce.org/observability-interface?ref=bounded-regret.ghost.io#system-design

评选征集中

「2024人工智能年度评选」

量子位2024人工智能年度评选已开启报名通道,评选从企业人物产品三大维度设立了5类奖项。

欢迎扫码报名评选!评选结果将于12月MEET2025智能未来大会公布,期待与数百万从业者共同见证荣誉时刻。

点这里?关注我,记得标星哦~

一键三连「点赞」、「分享」和「在看」

科技前沿进展日日相见 ~ 

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大模型 可解释性 AI Transluce AI Monitor
相关文章