小米技术 06月20日 18:36
从“手算”到“心算”:小米提出CoLaR算法,推理大模型效率提升53.3%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

小米大模型PLUS团队联合中国人民大学提出CoLaR方法,旨在提升AI数学推理效率。CoLaR通过压缩隐空间推理,类似人类“心算”而非逐字演算,显著提升了推理速度。在GSM和MATH数据集上,CoLaR展现出优异性能,尤其是在MATH数据集上,强化学习训练后的CoLaR在提升正确率的同时,大幅降低了推理链长度,为AI高效推理提供了新思路。

🧠 CoLaR的核心在于“压缩隐空间推理”,将多个词元压缩成一个连续的数字向量(隐空间变量)进行推理,类似于人类的“心算”,从而提升推理效率。通过嵌入压缩模块,CoLaR可以根据不同的压缩因子控制模型的“思考速度”。

⚙️ CoLaR采用动态隐变量预测,区别于传统确定性方法,通过“隐变量头”预测高斯分布的均值和方差,保留探索不同推理路径的能力。

💪 强化学习是CoLaR的关键,采用GRPO算法优化隐变量推理路径,根据答案正确性分配奖励,从而在MATH数据集上,使准确率提升 5.36%,同时推理长度减少 82.8%。

📈 实验结果表明,在小学数学数据集上,CoLaR仅损失 4.8% 的成功率,实现 53.3% 的推理性能提升;在数学竞赛题MATH上,强化学习版CoLaR在推理长度压缩 82.8% 的同时,准确率提升 5.36%。

🚀 未来,小米大模型团队将聚焦模型根据问题的难度自主选择压缩率,甚至在推理过程中动态调整压缩率,以实现效果和效率的完美结合,推动大模型在高效推理场景中的实际应用。

小米大模型团队 2025-06-20 10:01 广西

你是否想过,当人工智能解决数学题时,是怎么一步步思考的?

现在的大型语言模型(比如能做数学推理的 AI),常用一种 “思维链” 方法 —— 就像人类做题时在纸上写步骤一样,AI 会逐字生成中间推理过程,最后给出答案。但这种 “逐字写下来” 的方式就像让 AI 用慢动作解题,效率很低。如何让 AI 高效思考,成为亟待解决的问题。

针对此问题,小米大模型 PLUS 团队与中国人民大学的研究团队合作提出了压缩隐空间推理(Compressed Latent Reasoning, CoLaR),即通过将多个词元(字符)压缩到一个连续的数字向量(隐空间变量)进行推理,类似人类“心算”而非在纸上逐字写下计算过程,进而提升推理效率。

在 GSM 系列数据集(小学难度数学题)上,相较基准模型,CoLaR 在使用更少推理步数的同时将解题成功率提升了 14.1%,相较逐字思考的思维链方法,CoLaR 仅以 4.8% 的正确率为代价,实现了 53.3% 的推理速度提升

在更具挑战性的 MATH 数据集(大学难度数学题)上,经过强化学习训练后的 CoLaR 模型在正确率提升 5.36% 的同时,将推理链长度降低了 82.8%,首次证明了强化学习在隐变量推理领域的有效性。

01

方法详解

监督学习训练(左)以及强化学习训练(右)示意图

推理过程以及检索分析示意图

CoLaR 在推理过程中预测的隐变量可以有效地在数十万词元中检索出多个最有意义的词元,证明了思考过程预测的隐变量具有浓缩且有意义的推理信息。

推理压缩与理解

动态隐变量预测

强化学习调优

02

实验结果

主要实验

分析性试验

03

总结与展望

CoLaR 首次实现了动态调节压缩率的隐变量推理,让 AI 能像人类一样 “灵活心算”,突破了传统方法固定步数和缺乏探索的局限。尽管目前性能略低于传统显式推理,但团队认为通过扩大训练数据和迭代训练策略,有望实现质的突破。

未来研究将聚焦模型根据问题的难度自主选择压缩率,甚至在推理过程中动态调整压缩率,实现效果和效率的完美结合,进而推动大模型在高效推理场景中的实际应用。



END





阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

小米大模型 CoLaR AI推理 数学 强化学习
相关文章