小米技术 前天 05:17
从“手算”到“心算”:小米提出CoLaR算法,推理大模型效率提升53.3%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

小米大模型团队联合中国人民大学提出CoLaR,一种创新的“压缩隐空间推理”方法,旨在提升AI解决数学题的效率。CoLaR通过将多个词元压缩成一个数字向量进行推理,类似于人类“心算”,而非传统的逐字推理。在GSM和MATH数据集上,CoLaR展现出卓越的性能,例如在小学数学题上,CoLaR在推理速度提升的同时仅损失了4.8%的正确率。在更具挑战性的MATH数据集上,强化学习版本的CoLaR在提升准确率的同时显著降低了推理链长度,验证了强化学习在隐变量推理领域的潜力。这项研究为大模型的高效推理提供了新的思路。

🧠 CoLaR的核心在于“压缩隐空间推理”,它将多个词元压缩成一个连续的数字向量,使AI能够进行类似“心算”的推理,从而提高效率。

⚙️ CoLaR包含嵌入压缩模块,通过随机选择压缩因子,将连续词元的嵌入向量压缩成隐变量。测试时,只需调整提示中的压缩因子,即可控制模型的“思考速度”。

📊 动态隐变量预测是CoLaR的另一大亮点,它通过预测高斯分布的均值和方差,保留了探索不同推理路径的能力,而非传统确定性方法。

💪 强化学习在CoLaR中发挥重要作用,通过GRPO算法优化隐变量推理路径,在MATH数据集上实现了准确率的提升和推理长度的显著降低。

📈 实验结果表明,CoLaR在小学数学题上实现了推理速度的提升,并在更复杂的数学竞赛题上证明了强化学习的有效性,展现出其在高效推理方面的巨大潜力。

小米大模型团队 2025-06-20 10:01 广西

你是否想过,当人工智能解决数学题时,是怎么一步步思考的?

现在的大型语言模型(比如能做数学推理的 AI),常用一种 “思维链” 方法 —— 就像人类做题时在纸上写步骤一样,AI 会逐字生成中间推理过程,最后给出答案。但这种 “逐字写下来” 的方式就像让 AI 用慢动作解题,效率很低。如何让 AI 高效思考,成为亟待解决的问题。

针对此问题,小米大模型 PLUS 团队与中国人民大学的研究团队合作提出了压缩隐空间推理(Compressed Latent Reasoning, CoLaR),即通过将多个词元(字符)压缩到一个连续的数字向量(隐空间变量)进行推理,类似人类“心算”而非在纸上逐字写下计算过程,进而提升推理效率。

在 GSM 系列数据集(小学难度数学题)上,相较基准模型,CoLaR 在使用更少推理步数的同时将解题成功率提升了 14.1%,相较逐字思考的思维链方法,CoLaR 仅以 4.8% 的正确率为代价,实现了 53.3% 的推理速度提升

在更具挑战性的 MATH 数据集(大学难度数学题)上,经过强化学习训练后的 CoLaR 模型在正确率提升 5.36% 的同时,将推理链长度降低了 82.8%,首次证明了强化学习在隐变量推理领域的有效性。

01

方法详解

监督学习训练(左)以及强化学习训练(右)示意图

推理过程以及检索分析示意图

CoLaR 在推理过程中预测的隐变量可以有效地在数十万词元中检索出多个最有意义的词元,证明了思考过程预测的隐变量具有浓缩且有意义的推理信息。

推理压缩与理解

动态隐变量预测

强化学习调优

02

实验结果

主要实验

分析性试验

03

总结与展望

CoLaR 首次实现了动态调节压缩率的隐变量推理,让 AI 能像人类一样 “灵活心算”,突破了传统方法固定步数和缺乏探索的局限。尽管目前性能略低于传统显式推理,但团队认为通过扩大训练数据和迭代训练策略,有望实现质的突破。

未来研究将聚焦模型根据问题的难度自主选择压缩率,甚至在推理过程中动态调整压缩率,实现效果和效率的完美结合,进而推动大模型在高效推理场景中的实际应用。



END





阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

小米大模型 CoLaR AI推理 思维链 强化学习
相关文章