index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
POLAR是一款创新的奖励模型,它采用对比学习范式,通过衡量模型回复与参考答案的“距离”来给出精细分数。POLAR摆脱了对海量人工标注的依赖,展现出强大的Scaling潜力,即使是小模型也能超越规模大数十倍的对手。POLAR的出现,为大模型后训练带来了新的可能性,有望打通RL链路扩展的最后一环,为AI更懂人类的目标提供了新的解决方案。
💡 POLAR的核心在于采用对比学习预训练范式。与传统的基于“绝对偏好”的奖励建模方式不同,POLAR通过衡量训练策略与目标策略之间的“距离”来作为奖励信号。当训练策略越接近目标策略时,POLAR就给予越高的奖励。
✨ POLAR的训练分为预训练和偏好微调两个阶段。预训练阶段,POLAR使用自动化合成数据构建,通过对比学习的方式度量“距离”,构造正负样本,形成无偏的优化目标。微调阶段,POLAR使用少量偏好数据对齐人类偏好。
🚀 POLAR展现出强大的Scaling效应。实验结果表明,POLAR仅靠1.8B~7B的参数量,便在下游RL效果上超越70B以上的SOTA奖励模型,显著增强了奖励模型的准确性和泛化性。POLAR的Scaling效应,体现出其用于构建更通用和更强大的奖励模型的巨大潜力。
新智元 2025-07-11 12:06 北京

编辑:定慧 好困
【新智元导读】最近,一款全新的奖励模型「POLAR」横空出世。它开创性地采用了对比学习范式,通过衡量模型回复与参考答案的「距离」来给出精细分数。不仅摆脱了对海量人工标注的依赖,更展现出强大的Scaling潜力,让小模型也能超越规模大数十倍的对手。
一直以来,让AI更懂人类都是大模型领域的核心议题。而奖励模型(RM)便是解决如何「理解人类偏好」的核心技术,同时也是限制后训练效果的关键因素。2024年12月,OpenAI提出了一种新的强化微调(Reinforcement Fine-tuning,RFT)技术。在RFT过程中,打分器(Grader)会根据标准答案给出奖励分数,从而帮助模型「学会」如何给出正确结果。图1:OpenAI强化微调代表样例在此启发下,一种可以规避奖励模型准确度低、泛化性差等固有问题的,基于规则验证(RLVR)的方法应运而生。然而,RLVR在很多情况下只能提供0/1奖励,无法给出更加细粒度的偏好区分。比如像写诗、聊天这类开放式问题,就很难实现泛化,进而限制了在更通用场景中的应用。针对这一问题,来自上海人工智能实验室和复旦大学的研究人员,在最近提出了一种全新的奖励模型POLAR,并开源了1.8B和7B两个参数规模的版本。区别于传统的「基于绝对偏好」的奖励模型,POLAR采用了全新对比学习预训练范式,可以根据参考答案,灵活地对模型回复给出奖励分数。实测结果表明,POLAR已经充分展现出了一个出色「Grader」的潜质。论文链接:https://arxiv.org/abs/2507.05197项目链接:https://github.com/InternLM/POLAR模型链接:https://huggingface.co/internlm/POLAR-7B我们将开篇提到的OpenAl生物基因领域官方样例输入POLAR,并构造了一些模型回复后发现,POLAR可以完美地给出正确的偏序关系!回复一(与参考完全一致):FOXE3 分数:-0.278回复二(正确答案Rank 1):genes: [ FOXE3 , KDM5A, BBS5] 分数:-7.889回复三(正确答案Rank 2):genes: [BBS5, FOXE3 , KDM5A] 分数:-7.998回复四(正确答案Rank 3):genes: [KDM5A, BBS5, FOXE3 ] 分数:-8.008回复五(与正确答案相似的拼写错误):genes: [FOXE2, KDM5A, BBS5] 分数:-8.965回复六(无正确答案):genes: [CHD7, KDM5A, BBS5] 分数:-10.225
除此之外,POLAR对开放问题的回答也能基于参考样例给出正确的偏序:问题:请用一句话幽默地概括《三体》第二部。参考回复(点出了黑暗森林和关键情节):人类靠一句「我告老师了」击退三体人的太空舰队。 回复一(点出了黑暗森林和关键情节):人类被三体人按在地上摩擦,最后靠罗辑「宇宙碰瓷」吓退专业团队。 分数:-7.414回复二(点出了黑暗森林):罗辑苦思冥想一整本书,终于悟出真理:别乱发朋友圈,否则会被灭口。 分数:-8.070回复三(部分事实错误,二向箔是第三部内容):全宇宙都在玩「黑暗森林」躲猫猫,人类却把「别杀我」的告示牌挂反了,结果引来了二向箔拆迁办。 分数:-8.141回复四(未点出黑暗森林):面壁者在演悬疑剧,破壁者在演推理剧,三体人则在看荒诞剧。 分数:-8.922回复五(不够幽默):危机纪元到来,人类选出「面壁者」进行心理博弈,最终用黑暗森林法则威慑住三体文明。 分数:-9.742
问题:帮我想3个形容雨很大的成语,要求不能重复。参考回复:1. 倾盆大雨 2. 暴雨如注 3. 瓢泼大雨 回复一(正确回答):1. 大雨滂沱 2. 狂风骤雨 3. 大雨如注 分数:-5.234回复二(非成语):1. 急雨如瀑 2. 豪雨倾天 3. 雨势磅礴 分数:-5.707回复三(与参考相似,重复一个):1. 倾盆大雨 2. 暴雨如注 3. 暴雨如注 分数:-6.656回复四(成语正确,多一个):1. 大雨滂沱 2. 狂风骤雨 3. 大雨如注 4. 倾盆大雨 分数:-7.023回复五(带雨字成语,两个含义不符):1. 大雨滂沱 2. 雨过天晴 3. 雨后春笋分数:-8.578
POLAR完美适配RFT强化学习框架,基于问题的参考答案对模型输出进行打分。如果模型输出与参考答案更为接近,则会获得更高的奖励值。通过这一训练过程,可以使得策略模型逐步向最优策略的方向优化。POLAR是怎么训出来的POLAR采用了一种与绝对偏好解耦的、可以真正高效扩展的奖励建模新范式:策略判别学习(Policy Discriminative Learning,POLAR),使奖励模型能够像大语言模型一样,具备可扩展性和强泛化能力。图2:POLAR的两阶段训练(预训练和偏好微调)以及在RFT中的使用方法与传统的基于「绝对偏好」的奖励建模方式不同,POLAR通过衡量训练策略与目标策略之间的「距离」来作为奖励信号。当训练策略越接近目标策略时,POLAR就给予越高的奖励。具体来说,POLAR使用了一种对比学习的方式做距离度量:同一个策略模型采样的结果作为正例,不同策略模型采样的结果作为负例。通过这种方式构造正负样本,形成无偏的优化目标。同时,把策略模型看作是某个分布的无偏采样器,通过刻画样本间差异来近似刻画策略之间的距离。POLAR的预训练语料完全由自动化合成数据构建。具体而言,从LLM预训练语料中采样出大量的文本前缀,并从策略模型池中随机取模型进行轨迹采样。这里的策略模型池由开源的131个Base LLM和53个Chat LLM组成,预训练目标使用Bradley-Terry Loss:其中,A1和A2代表相同策略模型生成的样本(正样本对);B1代表不同策略模型生成的样本(负样本)。由于「距离」具有相对性,这里的A和B两个策略模型可以任意选取。例如,A1和A2可以是由Qwen 1.5B采样得到,B1可以由Qwen 72B采样得到。通过这种方式,POLAR的预训练语料是非常容易扩展的。在实际的实验中,POLAR-1.8B共使用了0.94T token的预训练数据,POLAR-7B共使用了3.6T token的预训练数据。通过预训练,POLAR可以为距离相近的策略产生的样本赋予更高奖励,从而隐式建模策略分布的差异和距离。之后,POLAR在微调阶段可以使用很少量的偏好数据对齐人类偏好。具体来说,对于同一个Prompt,采样三条轨迹,由人工标注偏好顺序。同样使用Bradley-Terry Loss进行微调:其中,A>B>C,分别代表偏好最优、次优、最差的轨迹。这种偏好排序隐式定义了一种「策略差异」,例如A可以视为从最佳策略分布中采样得到,而C可以视为从一个与最佳策略相差较远的策略分布中采样得到。POLAR的Scaling效应图3:POLAR的Scaling LawPOLAR展现出了与大语言模型Next Token Prediction目标类似的Scaling效应。这体现了POLAR无监督预训练方法的巨大潜力。从图3可以观察到,验证集损失随模型参数N的增加呈幂律关系下降,拟合R值为0.9886;验证集损失也随最优训练计算量C的增加呈幂律关系下降,拟合的R值为0.9912。这些结果表明,分配更多的计算资源将持续带来更好的POLAR性能。POLAR的极佳Scaling效应,体现出其用于构建更通用和更强大的奖励模型的巨大潜力,也有望打通RL链路扩展的最后一环。效果如何POLAR通过对比学习预训练方法,不仅彻底摆脱了对大规模偏好数据的依赖,而且还可以大规模无监督扩展。结果就是,POLAR仅靠1.8B~7B的参数量,便在下游RL效果上超越70B以上的SOTA奖励模型,显著增强了奖励模型的准确性和泛化性。图4:偏好评估实验结果在偏好评估方面,POLAR展现出优越的性能和全面性,在大多数任务维度上优于SOTA奖励模型。例如,在STEM任务中,POLAR-1.8B和POLAR-7B分别超越了最佳基线24.9和26.2个百分点,并且能够准确识别推理、聊天、创意写作等通用任务中轨迹的细微区别,准确预测人类偏好。值得注意的是,POLAR-1.8B仅有1.8B参数,就可取得与Skywork-Reward-27B和WorldPM-72B-UltraFeedback(参数量分别为其15倍和40倍)相当的结果。图5:强化微调实验结果在强化微调RFT实验中,POLAR持续优于SOTA的开源奖励模型。例如,使用POLAR-7B微调的Llama-3.1-8B在所有基准测试中,相对于初始结果平均提升了9.0%,相对于WorldPM-72B-UltraFeedback优化的结果提升了6.7%。POLAR能够从预训练阶段学习策略模型之间的细微区别,而不仅仅依赖于标注的偏好对,从而显著增强了实际RL应用时的奖励信号泛化性。实验结果表明,尽管POLAR-1.8B和POLAR-7B在偏好评估中表现相似,但在下游RL实验中,POLAR-7B展现出了显著优势。从1.8B到7B的效果提升,进一步说明了POLAR所具有的Scaling效应。这也侧面说明了当前传统Reward Bench可能存在的局限性,即与真实强化学习场景存在较大的差别。结语大模型在Next Token Prediction和Test-time Scaling两种扩展范式下,通过大规模的数据和模型扩展,实现了能力的持续跃升。但相比之下,传统奖励模型缺乏系统性的预训练和扩展方法,导致其能力难以随计算量增长而持续提升。而POLAR在奖励模型预训练和通用性的道路上迈出了坚实的一步。POLAR在预训练阶段通过对比学习建模策略间的距离,无需大规模偏好数据。在使用阶段,POLAR利用RFT范式对LLM进行强化学习,展现出了极佳的泛化性。POLAR作为一种全新的、可扩展的奖励模型预训练方法,为LLM后训练带来了新的可能,让通用RFT多了一种有效实践方案。最终,有望打通RL链路Scaling的最后一环。参考资料:
https://arxiv.org/abs/2507.05197

















阅读原文
跳转微信打开