IT之家 02月15日
结构为王:AI 推理新思路,思维链结构成突破 LLM 高效训练关键
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

加州大学伯克利分校的研究团队提出了一种新的AI训练方法,该方法仅需少量数据即可显著增强大语言模型(LLM)的推理能力。他们通过微调Qwen2.5-32B-Instruct模型,并结合SFT和LoRA微调技术,着重优化推理步骤的结构完整性,而非内容本身。实验结果表明,这种方法在多个基准测试中都取得了显著的性能提升,例如在AIME 2024上的准确率提升了40个百分点。这项研究表明,关注CoT的结构比依赖大规模数据更为重要,有助于开发出以最少计算资源确保强大逻辑一致性的训练方法,使LLM更易于访问和扩展。

💡研究团队提出了一种新的训练方法,利用仅17000个CoT示例,微调Qwen2.5-32B-Instruct模型,并结合了SFT和LoRA微调技术,从而增强大语言模型(LLM)的推理能力。

🧩该方法强调优化推理步骤的结构完整性,而非内容本身,通过改进逻辑一致性并最大限度地减少不必要的计算开销,从而显著提高了LLM的推理效率。研究表明,CoT的结构在增强LLM推理性能方面起着至关重要的作用。

📊使用新方法后的测试效果显著,AIME 2024准确率提升40.0个百分点,Math-500达到90.8%,提升6.0个百分点,AMC 2023达到85.0%,提升17.5个百分点,OlympiadBench达到60.3%,提升12.7个百分点,LiveCodeBench得分57.0%,提升8.1个百分点。

🔬这项研究表明,将关注点从大规模数据依赖转向结构完整性,可以开发出一种以最少的计算资源确保强大逻辑一致性的训练方法。这种方法减少了对海量数据集的依赖,同时保持了强大的推理能力,使LLM更易于访问和扩展。

IT之家 2 月 15 日消息,科技媒体 marktechpost 昨日(2 月 14 日)发布博文,报道称加州大学伯克利分校的研究团队提出了一种 AI 训练方法,仅需少量数据即可增强大语言模型(LLM)推理能力。

提升 LLM 推理能力的难点在于训练模型生成具有结构化自反思、验证和回溯的长链式思维(CoT)响应。现有模型的训练过程通常需要在大量数据集上进行昂贵的微调,且许多专有模型的训练方法并不公开。

研究团队提出了一种新的训练方法,仅使用 17000 个 CoT 示例,微调 Qwen2.5-32B-Instruct 模型,并结合了 SFT 和 LoRA 微调技术,强调优化推理步骤的结构完整性而非内容本身,通过改进逻辑一致性并最大限度地减少不必要的计算开销,从而显著提高了 LLM 的推理效率。

研究表明,在增强 LLM 推理性能方面,CoT 的结构起着至关重要的作用,改变训练数据的逻辑结构会显著影响模型的准确性,而修改单个推理步骤的影响则很小。

IT之家附上使用新方法后的测试效果如下:

这些结果表明,高效的微调技术可以使 LLM 在更少的数据需求下达到与 OpenAI 的 o1-preview 等专有模型相媲美的推理能力。

这项研究表明,将关注点从大规模数据依赖转向结构完整性,可以开发出一种以最少的计算资源确保强大逻辑一致性的训练方法。这种方法减少了对海量数据集的依赖,同时保持了强大的推理能力,使 LLM 更易于访问和扩展。

该研究的成果为未来模型的优化铺平了道路,证明结构化微调策略可以有效地增强 LLM 推理能力,而不会影响效率,这标志着复杂的 AI 推理模型在更广泛应用方面迈出了重要一步。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大语言模型 AI训练 推理能力 结构化微调 CoT
相关文章