月之暗面 Kimi 04月19日 15:01
Kimina-Prover 预览版:基于强化学习的大规模形式化推理模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Kimi 技术团队发布了 Kimina-Prover 预览版,一款由 Numina 和 Kimi 团队联合研发的数学定理证明模型。该模型基于 Qwen2.5-72B 模型,并结合 Kimi k1.5 的大规模强化学习(RL)流程进行训练,在权威的 miniF2F 形式化数学基准测试中取得了显著成果,超越了之前的最佳结果。Kimina-Prover 采用创新的推理驱动探索范式,利用强化学习优化内部策略,实现隐式探索,并展现出卓越的样本效率和清晰的模型规模效应。研究团队还开源了相关模型和数据集,期待社区共同探索大模型在形式化推理领域的潜力。

💡 Kimina-Prover 预览版在 miniF2F 形式化数学基准测试中,以更低的采样预算达到了 80.7% 的通过率,显著优于之前的最佳结果,展示了其强大的形式化证明能力。

🚀 该模型的核心在于将大规模强化学习(RL)与“形式化推理模式”深度结合,通过强化学习直接训练模型生成完整证明的内部“策略”,实现隐式探索,极大地降低了计算开销。

📈 Kimina-Prover 展现出卓越的样本效率,即使在极少采样次数下也能取得有竞争力的结果,并且随着采样预算的增加,性能有效扩展,同时,性能随着模型参数规模的增大而持续提升,首次在形式化数学领域的神经定理证明器中观察到如此明确的规模效应。

🧐 Kimina-Prover 生成的证明呈现出更分解、更结构化的特点,大量使用 have 语句来组织证明步骤,这与人类为了清晰性而编写的证明风格非常相似,也展现出探索多条推理路径、反思和修正思考过程等高级推理行为。

🎁 Kimi 技术团队开源了 Kimina-Prover 的 1.5B 和 7B 参数的蒸馏版本、用于数据生成的 Kimina-Autoformalizer-7B 模型以及修订过的 miniF2F 基准测试数据集,供社区使用。

原创 Kimi 技术团队 2025-04-16 20:37 天津

附技术报告、模型和数据集下载

我们最近发布了 Kimina-Prover 预览版的技术报告,同时开源了 1.5B 和 7B 参数的模型蒸馏版本、用于数据生成的 Kimina-Autoformalizer-7B 模型以及修订过的 miniF2F 基准测试数据集。
Kimina-Prover 是由 Numina 和 Kimi 团队联合研发的一款数学定理证明模型,它在形式化定理证明领域采用了一种新颖的、由推理驱动的探索范式。基于 Qwen2.5-72B 模型,并结合 Kimi  k1.5 的大规模强化学习(RL)流程进行训练,Kimina-Prover 在 Lean 4 形式化证明生成方面展现出极佳的性能:在权威的 miniF2F 形式化数学基准测试中,Kimina-Prover  预览版以更低的采样预算(pass@8192)达到了 80.7% 的通过率,显著超越了之前的最佳结果:BFS Prover 的 72.95%(pass@2048×2×600+)和 DeepSeek-Prover 的 50.0%(pass@65536)。

在 miniF2F 测试数据集上,不同定理证明方法的性能比较。X轴表示样本预算(即尝试证明的次数,pass@8192代表尝试证明8192次中有一次做对),Y轴表示通过率。这些方法被分为两类:完整证明生成方法和树搜索方法。结果显示,Kimina-Prover 预览版在样本数量较少的情况下实现了最高的通过率,而树搜索方法通常需要更多样本才能达到类似的性能。

AI 形式化推理面临的挑战

形式化定理证明,即应用严格的数学逻辑和计算机程序来验证数学定理的正确性,它是数学和计算机科学领域交汇处一个颇具代表性的方向。它不仅在推动纯粹数学研究和人工智能推理能力方面具有重要意义,也在某些关键软件和硬件系统的验证中展现出实际应用价值。
然而,让 AI 掌握形式化证明极具挑战。传统的自动化方法往往难以应对复杂、需要深刻洞察力和创造力的数学问题。近年来,大语言模型(LLM)的兴起为这一领域带来了新的希望,但现有方法大多存在局限:

1. 依赖外部搜索:许多方法严重依赖经典的搜索算法(如最佳优先搜索 BFS、蒙特卡洛树搜索 MCTS)来探索证明空间,这带来了巨大的计算开销和复杂性,限制了可扩展性。 

2. 难以捕捉深度推理: LLM 擅长模式匹配和序列生成,但要捕捉形式化证明中深层、结构化、甚至非线性的推理逻辑仍然困难重重。 

3. 缺乏模型规模效应: 以往针对形式化数学的神经定理证明器,其性能提升往往不随模型规模的增大而显著增长,这表明模型利用更大参数空间进行复杂推理的能力受限。

Kimina-Prover 的探索之路

为了克服传统方法的局限,Kimina-Prover 采用了新的路径,其核心在于将大规模强化学习(RL)与我们设计的“形式化推理模式”(Formal Reasoning Pattern)深度结合,用以驱动模型自身的内部推理能力。

左侧为 Formal Reasoning Pattern 示意图,右侧为 Formal RL pipeline 示意图

Kimina-Prover 探索的新路径体现在以下几个方面:

1. 强化学习优化内部策略,实现隐式探索:我们没有将 LLM 仅仅作为外部搜索算法的启发式函数,而是利用强化学习直接训练模型生成完整证明(包含思考过程和最终代码)的内部“策略”。这个被优化的策略使得模型能够在生成 token 的过程中,隐式地探索庞大的证明空间,自主地导航推理路径。这与传统方法依赖外部算法构建和遍历显式搜索树形成了鲜明对比,极大地降低了计算开销,并赋予了模型更灵活、更接近人类直觉的探索方式。

2. 基于最终结果的奖励信号:强化学习的训练过程是目标导向的。模型生成的每个候选证明都会被发送到 Lean 服务器(作为环境)进行严格验证。只有完全正确、能通过编译的证明才能获得正奖励(reward=1),其余则为零。这种清晰、来自最终目标的奖励信号,驱动模型学习那些真正能够导向成功证明的推理路径和代码生成模式。

3. 克服训练挑战,保证学习效率与稳定: 在形式化证明这样结构要求严格的领域应用 RL 并非易事。为解决“格式崩溃”等问题并保证训练稳定,我们实施了关键策略:a) 对生成的样本进行严格的格式过滤;b) 结合关于非形式化数学的混合训练数据;c) 在 RL 优化中引入 KL 散度约束,使得模型在学习新知识的同时不会偏离初始习得的有效模式。

4. 自动化构建大规模训练数据:为了支持 RL 训练对大量多样化问题的需求,我们开发了 Kimina-Autoformalizer-7B 模型,用于自动将自然语言数学问题转化为 Lean 4 的形式化描述,构建了大规模、多样化的训练问题集,为 RL 的有效学习奠定了坚实的基础。

其中,强化学习技术在 Kimina-Prover 中扮演了核心驱动力的角色,它不再是辅助外部搜索的工具,而是直接塑造和优化模型内部推理逻辑的关键机制,使模型能够像人类一样,通过思考、试错和学习,自主地导航复杂的证明过程。

初步研究成果与关键洞察

Kimina-Prover 预览版的表现在多个方面都取得了进展:

1. MiniF2F 基准新 SOTA: Kimina-Prover 在权威的 miniF2F 形式化数学基准测试中,以 pass@8192 的采样预算达到了 80.7% 的通过率,显著超越了之前的最佳结果(BFS Prover 的 72.95%)。

2. 卓越的样本效率: 得益于独特的推理模式和 RL 训练,Kimina-Prover 展现出极高的样本效率。即使在极少采样次数下(如 pass@1 达到 52.94%),它也能取得有竞争力的结果,并且随着采样预算的增加,性能有效扩展。(见下图)

不同证明系统在模型大小、样本预算和 miniF2F 测试结果方面的表现。加粗部分表示在模型大小和计算预算方面的SOTA结果。
3. 首次观察到清晰的模型规模效应: 我们的实验清晰地表明,Kimina-Prover 的性能随着模型参数规模的增大(从 1.5B 到 7B,再到 72B)而持续提升。这是首次在形式化数学领域的神经定理证明器中观察到如此明确的规模效应,证明了我们的方法能够有效利用更大规模模型的优势。(见下图)

不同尺寸 Kimina-Prover 模型的性能扩展情况。

4. 形式化数学推理显著优于通用大模型: 与顶尖的通用推理大模型(如 OpenAI o3-mini 和 Gemini 2.5 Pro)相比,Kimina-Prover 在形式化数学任务上展现出压倒性优势。后者虽然在非形式化数学解题上表现良好,但在生成严格、可验证的 Lean 证明时往往会失败或产生幻觉。Kimina-Prover 则能稳定生成形式正确、可通过 Lean 编译器检查的证明。

5. 涌现类人证明风格: Kimina-Prover 生成的证明呈现出更分解、更结构化的特点,大量使用 have 语句来组织证明步骤,这与人类为了清晰性而编写的证明风格非常相似。模型还展现出探索多条推理路径、反思和修正思考过程、分析小规模案例以发现通用模式等高级推理行为。(见技术报告的附录 E, F

研究发现,Kimina-Prover 的性能能够随着模型规模和上下文长度的增加而显著扩展(Scalability),初步验证了 “基于推理的神经证明器” (reasoning-enabled neural provers) 的潜力。也就是说,不再仅仅依赖外部搜索,而是通过强化学习等方式激发和引导模型自身的推理能力,是构建更强大、更高效形式化系统的可行方向。

此外,Kimina-Prover 的思考过程具有很高的可解释性,用户可以查看模型是如何一步步推导出证明的,这为理解模型行为、诊断失败原因提供了便利,也使其具备成为数学教育辅助工具的潜力。

开放研究与未来计划

我们坚信开放研究的力量。为此,我们和 Numina 合作开源了 Kimina-Prover 的 1.5B 和 7B 参数的蒸馏版本,用于数据生成的 Kimina-Autoformalizer-7B 模型,以及修订过的 miniF2F 基准测试数据集。我们期待社区的参与,共同探索大模型在形式化推理领域的更多可能。

展望未来,我们计划继续提升证明的质量和效率,例如通过过滤掉过度依赖高级自动化策略(tactics)的输出、利用 Lean 编译器反馈进行迭代式错误修正、集成外部工具(如知识库检索、计算引擎)等。

Kimina-Prover 预览版是我们在探索大模型推理能力道路上的重要一步。我们相信,这种在严格的形式系统中锤炼出的深度结构化理解和严谨推理能力,未来将可能迁移并增强 AI 在非形式化数学问题解决,甚至更广泛的复杂推理任务上的表现,从而真正连接起形式逻辑与人类直觉。这种结合了大规模强化学习和类人推理模式的方法,将为自动化推理乃至通用人工智能(AGI)的发展开辟新思路。



↓了解更多 Kimi 研究项目

2025/04 
Kimina-Prover Preview: Towards Large Formal Reasoning Models with Reinforcement Learning 


2025/04 
Kimi-VL Technical Report 

2025/02 
Muon is Scalable for LLM Training 


2025/02
MoBA: Mixture of Block Attention for Long-Context LLMs

2025/01
Kimi k1.5: Scaling Reinforcement Learning with LLMs 


2024/06
Mooncake: A KVCache-centric Disaggregated Architecture for LLM Serving 

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Kimina-Prover 数学定理证明 强化学习 形式化推理 大模型
相关文章