掘金 人工智能 13小时前
浅析LLM训练(Training)几种典型模式
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文深入浅出地解析了LLM大模型的训练过程,区分了预训练、后训练、监督微调和强化学习等关键概念。文章通过DeepSeek和Qwen两个案例,详细阐述了这些训练方法在实际应用中的具体实践,帮助读者理解不同模型谱系之间的关系,以及它们如何针对特定业务场景进行优化。同时,文章也提到了不同微调方法的优缺点,以及在实际应用中的选择策略。

💡预训练是构建大模型的基础,通过大规模通用数据集训练,得到基座模型,具备基础的预测和推理能力。

⚙️后训练在基座模型基础上,针对特定业务场景进行调整,通过监督微调(SFT)和强化学习(RL)两种方式,提升模型性能。

📚监督微调(SFT)依赖精确标注的数据集,通过调整模型参数,使其更精准地适应特定行业或领域的需求。

🧠强化学习(RL)通过奖励模型引导模型学习,使其输出符合特定价值观和偏好,例如聊天机器人的“情绪价值”。

💡DeepSeek和Qwen模型谱系的案例展示了不同训练方法在实际中的应用,例如DeepSeek R1推理增强模型结合SFT和RL,Qwen2.5-Math模型通过SFT和RL实现数学问题的解答。

我们或多或少都听说LLM大模型是先“训练”出来,然后再用于“推理”,那怎么理解这个“训练”过程?

是不是经常听说行业性场景中要使用垂域大模型,比通用大模型效果会更好,然后都说垂域大模型是“微调”出来的,那么什么是“微调”?和上面说的“训练”是什么关系?

当你尝试去深入了解这些问题时,搜到的各种介绍是不是都有点深奥?看到预训练、后训练、监督微调、强化学习、低秩适应、奖励模型等一堆概念是不是有点懵逼?

本文对这些概念和模式进行梳理汇总,并结合DeepSeek和Qwen两个案例进行说明,方便像我一样从信息化领域转型过来的同学(刚开始入门)也能基本有所了解。

预训练(Pre-Training)和后训练(Post-Training

“训练Training”其实是多年前机器学习时代就有的概念,把机器学习模型可以想象成一个包含有多元变量的数学函数公式Y=W1X1+W2X2+...+WnXn+b,其中X1、X2...Xn就是预先选择好要参与计算的特征变量,然后利用一组包含特征值X和结果值Y的历史数据,进行训练得到就是各个特征变量的权重系数W1、W2...Wn,这样这个函数就建立起来(训练出来)了,然后预测过程就是将新的一组变量X代入这个函数公式(模型)进行计算,得到函数结果Y就是预测值。

虽然大模型本质和机器学习差异还是巨大的,比如大模型的训练过程是不需要人工预先选择/设计特征X的,而是自动学习提取出来的;大模型的权重系数W的数量是巨大的,几十亿到上万亿参数量;大模型的推理是基于词向量的概率推理,和机器学习这种确定性映射计算不同等。

但为了便于理解,我们还是可以将大模型的训练过程简单理解成以上数学函数的训练过程,最终都是为了训练得到这个数学函数的一套权重参数(只不过大模型的这个函数公式特别通用化、变量特征不固定、权重参数量特别多)。那么这个过程就包括预训练(pre-training)和后训练(post-train),其相互关系如下:

预训练(pre-training)得到的叫基座模型,可以认为是得到数学函数的一套基础权重参数,可以满足一般场景的预测和推理需要。

后训练(post-train)则是在这个基座模型基础上,结合业务场景需要和行业知识数据等进一步训练,最终是调整了基座模型的某些权重参数,以更精准的满足具体业务场景预测和推理需要。

监督微调(SFT)和强化学习(RL)

后训练内部又包含监督微调(SFT)和强化学习(RL)两个方向,其主要实现机制对比如下:

监督微调Supervised Fine-Tuning(SFT),其核心是要用到精确标注的数据集,而且是输入/输出成对出现的数据集,类似教育领域的题目和解题方法,医疗领域的针状和诊断方法,法律领域的案情和判决结果等,经过微调部分参数或全部参数,得到一个适用于特定行业领域更精准的专有模型。

这里推荐大神“智能体AI”写的《你真的了解大模型怎么“调”?四种主流LLM微调方法详解》这篇文章,基础逻辑讲得非常清晰,按微调的代价从高到低包括:全量微调Full-Tuning给基座模型“重塑金身”,相当于对以上所说数学函数的权重参数w全部都调整;冻结部分参数Freeze-Tunging只调“头部”参数;低秩适应LoRA给基座模型加外挂配件,相当于不用改模型本身参数,而是通过做加法,在基座模型上额外增加一些小的数学函数,以确保最终预测和推理结果也能符合行业特性;还有更轻量的量化低秩适应QLoRA,是把基座模型先量化压缩后,再做加法。

强化学习Reinforcement Learning(RL)的核心逻辑和微调SFT差别很大,它核心是通过奖励函数/奖励模型(Reward Model)的方式,来引导大模型形成一定的“肌肉记忆”,就是通过对模型输出,选择某些质量维度(如回答的有用性、安全性)进行评价,生成‌奖励分数‌,来指导大模型自我优化方向,举个例子可能更好理解:

比如我们常用的一些聊天对话大模型,之所以能够提供所谓的“情绪价值”,之所以不会出现暴力和涩涩的回答,很大程度上是通过强化学习实现的,在强化学习期间,如果大模型的输出是温暖和正面的,奖励模型就给它加分,经过长时间的强化学习引导,大模型的回答自然就会符合这些价值观和偏好。

所以强化学习的核心就在于奖励模型,这个才是灵魂和难度所在,当然强化学习内部又还有多种策略,比如RLHF(人类反馈强化学习)、PPO(近端策略优化)、GRPO(群体相对策略优化)等,后面案例中也会展开。

DeepSeek的模型谱系示例

接下来我们用DeepSeek的模型谱系案例,来理解上述预训练、监督微调和强化学习等不同训练方法的具体实践:

如图,我们都很熟悉DeepSeek有两种比较常用的模型,通用语言模型V3和推理增强模型R1,这两种模型实际都是在基座模型DeepSeek-V3-Base基础上经过监督微调和强化学习出来的。

和我们一般认知有所不同,都说R1是基于V3的,实际指的是基于V3-Base这个基座模型(Foundation Model)。

然后用于聊天对话的V3,实际也是在V3-Base基础上经过专门的后训练得出来的(基于标注好的问答数据集做SFT,基于强化学习评价引导等),所以才能在聊天对话中提供“情绪价值”。

而R1则是推理增强模型,其核心也包括监督微调SFT过程,利用带思维链推理过程标注的数据集;也包括强化学习RL过程,利用奖励模型来评分(如有推理过程和格式就加分,推理过程越清晰得分越多等)。经过多轮次交替最终得到这种推理增强模型,细节可以参考《一文读懂DeepSeek R1训练过程》这篇文章。

额外提一句:R1推理模型因为有Thinking思考过程,响应时间更慢一些,但可解释性更强一些,所以更适合复杂分析和总结的场景,而需要即时响应并反馈的场景,则更适合用通用语言模型V3。五一前夕出来的Qwen3模型,则是一个混合推理模型,可以按需开启/关闭推理思考过程。

Qwen2.5-Math模型谱系示例

前段时间因为要引用Qwen的数学模型(Qwen2.5-Math-7B-Instruct),在魔搭社区找到该模型的介绍,看到其模型谱系如下:

如图在Qwen2.5模型基础上,利用数据集“Math Corpus V2”,经过预训练Pre-train得到Qwen2.5数学模型系列的基座模型“Qwen2.5-Math”。

在基座模型“Qwen2.5-Math”基础上,经过监督微调SFT,得到Qwen2.5-Math-SFT模型,这里提到SFT过程包括:

这段英文主要说明微调SFT过程用到了思维链CoT做法,以及集成工具推理TIR的做法,关键是利用“Math SFT V2”这套标注数据集,实现中英文数学问题的解答。

在Qwen2.5-Math-SFT模型基础上进一步进行强化学习,其核心是利用“Qwen2.5-Math-RM(72B)”这个评价模型(Reward Model),同时基于‌群体相对策略优化GRPO(Group Relative Policy Optimization),才最终得到我们要在业务场景中使用的模型“Qwen2.5-Math-7B-Instruct”。

对这个案例有兴趣的同学,可以看看魔搭上这个模型介绍的原文链接,顺便可以学习下英文哈。

对强化学习GRPO策略感兴趣同学可以参考《为什么「群体对抗」比人类监督更聪明?》这篇文章的内容。

-end-

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大模型 预训练 微调 强化学习 DeepSeek Qwen
相关文章