PaperAgent 前天 20:39
ICML'25 | 告别手动SFT!一句话得到你的专属大模型LoRA
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Text-to-LoRA (T2L) 框架革新了LLM的微调方式,通过文本描述动态生成LoRA适配器,实现即时、灵活的任务定制。该方法解决了传统微调的工程复杂性,支持多种架构变体和训练方法,并在LoRA压缩和零样本泛化方面展现出色性能。T2L不仅在不同LLM模型上表现一致,还能够学习任务语义,为LLM的专业化提供了新的可能性。

💡Text-to-LoRA (T2L) 是一种基于自然语言指令动态生成LoRA适配器的框架,旨在简化LLM的微调流程,实现即时、灵活的任务适配,无需预先维护适配器库或进行特定任务微调。

⚙️T2L的核心架构围绕一个超网络构建,该网络将任务描述映射到LoRA适配器参数,通过组合任务描述的向量表示、目标模块类型和层索引的可学习嵌入作为输入,高效生成LoRA参数。

📊T2L提供了三种架构变体(L、M、S),在表达能力和效率之间进行权衡,并通过LoRA重建训练和监督微调(SFT)训练两种方法优化,以适应不同的部署场景和需求。

✅实验结果表明,T2L在LoRA压缩、零样本泛化和跨模型泛化方面均表现出色,能够为未见任务生成有效的适配器,并在多个基准上超越了原始适配器。

🧠T2L能够学习任务及其相应适应的有意义表示,通过可视化和相关性分析,展现了其对任务关系的语义理解能力。

2025-06-18 11:42 湖北

LLMs虽然在多种任务中表现出色,但传统微调方法(如LoRA)针对每个新任务都需要进行复杂的数据策划、长时间训练和超参数调优,“一个任务一个 LoRA”的范式导致工程开销大且难以敏捷部署。

Text-to-LoRA (T2L) 框架概述,展示了通过重建或监督微调 (SFT) 损失进行的训练过程,以及在不同压缩比和训练数据集大小下的性能分析。

Text-to-LoRA (T2L) 通过允许基于自然语言指令对 Transformer 模型进行即时、动态适配,引入了范式转变。T2L 不再需要维护预训练适配器库或进行特定任务的微调,而是完全基于对所需任务的文本描述动态生成适当的 LoRA 适配器。这种基于超网络的方法有望通过以最小的计算要求提供强大的定制功能来普及 LLM 专门化。

核心架构与设计

Text-to-LoRA 框架围绕一个超网络构建,该超网络将自然语言任务描述映射到 LoRA 适配器参数。该系统将组合了三个关键组件的连接表示作为输入:任务描述的向量表示、目标模块类型的可学习嵌入以及层索引的可学习嵌入。

超网络随后生成构成每个模块和层的 LoRA 适应的低秩矩阵A和B,这种批处理方法允许 T2L 在一次前向传播中生成完整 LoRA 适配器所需的所有参数,从而确保计算效率。

T2L 的三种架构变体 (L, M, S) 展示了在表达能力和效率之间权衡的不同参数生成方

探索了三种在表达能力和参数效率之间取得平衡的架构变体:

所有变体都共享一个共同的主干,包括一个初始线性混合层,随后是三个残差 MLP 块。架构使用“Bias-HyperInit”进行初始化,通过将初始输出偏置与 LoRA 权重预期尺度匹配来确保稳定训练。

训练方法

T2L 采用两种不同的训练方法,每种方法在不同的部署场景中都具有独特的优势。

LoRA 重建训练 代表了更直接的方法,其中 T2L 学习重建预训练 LoRA 适配器库。目标是最小化生成 LoRA 权重与目标 LoRA 权重之间的 L1 距离:

此方法利用现有 LoRA 库及其相关的任务描述,使其适用于已经存在此类库的场景。

监督微调 (SFT) 训练采取了一种更具抱负的端到端方法,直接根据下游任务性能优化 T2L。与重建现有适配器不同,此方法优化超网络以生成最大化基础 LLM 在实际微调数据集上性能的适配器:

这种方法允许 T2L 学习隐式任务聚类并生成更有效的适配器,而不会受到潜在次优预训练 LoRA 的限制。

实验结果与性能分析

实验评估表明 T2L 在多个维度上都表现出有效性,从 LoRA 压缩到对未见任务的零样本泛化。

训练误差与性能之间的关系,显示了 T2L 即使在显著压缩伪影下也能保持可观的性能。

LoRA 压缩能力:当通过重建在 9 个基准特定 LoRA 上进行训练时,T2L 成功恢复了所有架构变体中 Oracle 任务特定适配器的全部性能。值得注意的是,T2L 在多个基准上通常优于原始适配器,作者将此归因于有损压缩的正则化效应,防止了过拟合。

零样本泛化:SFT 训练的 T2L 最重要的发现是它能够为完全未见的任务生成有效的适配器。在评估 10 个涵盖推理、数学、科学和编码的 Diverse 基准时,SFT 训练的 T2L 始终优于包括多任务 LoRA 适配器和最先进的零样本路由方法(如 Arrow Routing 和 Hyperdecoders)在内的强大基线。

结果表明,T2L 在真正的零样本设置下,弥补了与 Oracle 任务特定 LoRA 之间的大部分性能差距。在 PIQA 和 Winogrande 等基准上,T2L 甚至超越了 Oracle 适配器,展示了其生成更优任务特定修改的潜力。

跨模型泛化:T2L 的有效性不仅限于主要的 Mistral-7B-Instruct 基础模型,它在 Llama-3.1-8B-Instruct 和 Gemma-2-2B-Instruct 上也显示出可比的性能改进。这种跨模型的一致性表明 T2L 学习的是任务特定适应的可迁移原则,而非模型特定的伪影。

任务理解与语义聚类

T2L 功能的一个重要方面在于它能够学习任务及其相应适应的有意义表示。作者通过可视化和相关性分析提供了 T2L 发展出任务关系语义理解的证据。

定性示例,展示了同一问题的不同任务描述如何导致生成响应中截然不同的推理方法和呈现风格。

    https://arxiv.org/abs/2506.06105

    https://github.com/SakanaAI/Text-to-Lora

    Text-to-LoRA: Instant Transformer Adaption

    推荐阅读


      欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

      阅读原文

      跳转微信打开

      Fish AI Reader

      Fish AI Reader

      AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

      FishAI

      FishAI

      鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

      联系邮箱 441953276@qq.com

      相关标签

      Text-to-LoRA LLM 微调 LoRA 人工智能
      相关文章