夕小瑶科技说 2024年12月27日
DeepMind最新研究:逆向思维训练LLM可大幅提升AI推理能力
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepMind研究表明,通过逆向思维训练可以显著提升大语言模型(LLMs)的推理能力。该研究通过构建逆向思维数据集,利用知识蒸馏框架,让模型学习正向和逆向推理之间的联系。研究发现,逆向思维在解决复杂问题时尤其有效,能帮助模型更清晰地理解推理路径并验证答案。实验结果显示,这种方法在常识推理、数学推理等多种任务上均有显著提升,尤其对中等难度的问题效果更佳。该研究为未来LLM研究提供了新的思路,强调了数据在模型训练中的重要性,并展示了如何利用LLM生成高质量训练数据。

💡DeepMind的研究证实,通过逆向思维训练,能够大幅提升大语言模型的推理能力,这为人工智能领域的研究提供了新的方向。

🔄研究通过构建数据集,使模型学习从结果反推原因的逆向推理过程,并利用知识蒸馏框架,提升模型在复杂问题上的推理能力。

📊实验结果表明,该方法在常识推理、数学推理等多种任务上均有显著效果,尤其对中等难度的问题提升最为明显,这为实际应用提供了有力支持。

✍️研究还展示了如何利用大型语言模型生成高质量的逆向思维训练数据,为数据驱动的AI模型发展提供了新的思路和方法。

原创 努力变大腿的zz 2024-12-26 23:04 北京

1822 年,电学之父法拉第在日记中写到“既然通电能够产生磁力,为什么不能用磁铁产生电流呢?我一定要反过来试试!”。于是在 1831 年,第一台发电机被发明,推动了人类进入电气化时代。

与之相似,作为全球亿万富翁之一的查理芒格将逆向思维作为他投资的重要思维模型之一,他有一句很著名的话:如果我知道自己会在哪里死去,我就永远不去那里。

这些都说明了逆向思维的重要性,而作为当前实现通用人工智能最具希望的道路,大语言模型(Large Language Models,LLMs)是否具备逆向思维?

近日,Google 的 DeepMind 在_"Reverse Thinking Makes LLMs Stronger Reasoners"_文章中给出了明确的答复:

逆向思维训练 LLM 可大幅度提升模型推理能力!!!

作为人工智能研究领域的领头羊,DeepMind 的研究成果一直是人工智能领域的风向标,例如 2014 年的 AlphaGo,2017 年的 Alpha Zero 向世人展示了强化学习的强大能力;2016 年的 AlphaFold 开启了利用人工智能研究蛋白质折叠,并于 2024 年助力其研究者 Demis Hassabis 斩获诺贝尔化学奖,这也是首次由人工智能研究者获得该奖项。

DeepMind 这篇关于逆向思维训练 LLM 的工作也为未来的 LLM 研究提供了全新的思路。

以下是文章传送门:

论文题目:
Reverse Thinking Makes LLMs Stronger Reasoners
论文链接:
https://arxiv.org/abs/2411.19865

简而言之,这篇文章从数据合成,知识蒸馏的角度展开研究,通过构建能够揭示逆向思维过程的数据集,然后利用知识蒸馏框架,借助教师模型指导学生模型的训练过程,从而实现利用逆向思维提升 LLM 的推理能力。

什么是逆向思维

逆向思维:从确定的目标状态出发,通过分析因果链条,找到实现目标的路径。这种方法在问题较为复杂,正向思维容易迷失方向时特别有效。

以上是 ChatGPT 给出的逆向思维的基本解释。从直观上理解,逆向思维就是从答案反推问题。例如:“Emma 有 2 个苹果,Jack 有 3 个苹果,一共有几个苹果?”。

正向思维就是“2+3=5”,得出一共有 5 个苹果。

而逆向思维可以理解为:“已知一共有 5 个苹果,现在 Emma 有 2 个苹果,请问 Jack 有几个?”。

这么做有什么好处呢?一方面使用逆向思维能够更加明确推理路径,另一方面能够验证正向推理得到的答案是否正确。而这种思想其实已经在很多场景下有所应用。例如在机器翻译中,源语言和目标语言之间是存在互译的双向关系的,使用这种双向关系能够有效提升翻译的质量。

既然逆向思维非常有效,那为什么在大模型推理中并没有广泛应用呢?

作者认为主要的问题还是数据。

那如何在更广泛,结构化更低的领域中利用逆向思维提升推理效果呢

DeepMind 给了一个非常好的示例:

逆向思维如何实现

如上图所示:本文的主要流程可以分为如下步骤:

    数据合成过程

      针对原始的 QA 问题,借助 LLM 构建从 Q->R 的正向推理过程,同时仅保留得到正确答案的推理过程

      构建详细的指令(针对每个任务),结合问题和答案,构建逆向问题

      使用相同的 LLM,针对逆向问题,生成对应的逆向回答

      使用检验函数进行正向推理和逆向推理的一致性检查,仅保留一致的结果数据

    模型训练过程(优化目标构建)

      正向推理优化:利用正向问答 Q->R 优化模型,即模型要根据问题进行正确的推理回答

      逆向问题生成:利用正向问题和逆向问题 Q->优化模型,即模型应该具备逆向思维的能力,学习正向问题和逆向问题之间的联系和区别

      逆向推理优化:利用逆向问答 ->优化模型,同样实用化模型需要根据问题进行正确的推理回答

本文使用了多任务学习的方法对以上三个优化目标进行同时优化,可以使用以下的优化目标函数进行形式化表示:

其中表示的交叉熵损失函数。

逆向思维效果如何

针对逆向思维提升 LLM 的推理能力,本文选择了多个推理任务(常识推理,数学推理,表格数据推理,自然语言推理,和逻辑推理),并且使用了两个不同的基础大模型(Mistral-7B,Gemma-7B)进行效果验证。

从下图中可以看出,本文提出的方法,分别在不同的基础大模型,不同的推理任务上均取得了非常好的效果。

除此之外,本文还分析了何种逆向推理数据会更有效。具体如下图所示,可以得到如下结论:

    同时使用正向问答 Q->R 和正逆向问题 Q->也能够有效提升模型的性能。

    单独使用逆向问答 ->会降低模型性能,主要原因可能是该类型数据会出现数据分布漂移情况。

最后,介绍本文中一个比较有意思的验证实验,作者探究了本文所提出的方法在处理不同问题类型和问题难度时的表现,最后发现,模型对一些可逆的问题和中等难度的问题有较好的表现,例如,代数问题,计数问题等。

数值理论分析问题上逆向思维并没有太大的效果。作者认为主要原因是这些问题没有办法进行逆向思维。与此同时,本文的方法对中等难度的问题有最大的提升,这点很有意思,值得深入研究。

提示词展示(大力飞砖技巧)

正如前文提到的,本文通过设计精巧的提示词,直接使用 LLM 生成逆向推理的数据,本文也在附录中展示了相关的提示词,可以作为一种数据生成方法的有效参考。当然,经过仔细阅读这些提示词,个人感觉这里仍需要一些人工筛选,我们无法保证 LLM 一定能够根据设定的提示词进行准确的逆向推理的生成。

这点个人本来是有比较大的期待的,没想到最后的解决方案是一种大力飞砖的方法,用最好的大模型直接合成,然后在此基础上进行筛选,从而构建高质量的逆向思维训练数据。果然目前阶段人工智能还是得有人工才有智能。

当然,也不得不说在目前模型结构,训练方法都没有太大突破的阶段,数据资源反而成为重要的突破方向,而 LLM 强大的生成能力反过来使得构建高质量数据变得高效低成本,那么如何借助 LLM 强大的生成能力,合成能够帮助解决实际问题的数据,通过模型训练和对齐,实现具体问题的解决就成为当前的简洁高效的框架。

从这个角度讲,新的 idea 不就在路上了么!

检验一流智力的标准,就是看你能不能在头脑中同时存在两种相反的想法,还维持正常行事的能力”。

——《了不起的盖茨比》


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

逆向思维 大语言模型 DeepMind 推理能力 知识蒸馏
相关文章