原创 让你更懂AI的 2025-05-27 13:42 北京
LoRA轻调+池化黑科技
近日上海 AI Lab 联合华南理工大学、香港科技大学(广州)、南京大学和香港中文大学发布了他们的一项研究成果:Liger(狮虎兽),即 Linearizing LLMs to gated recurrent structures,这是一个能够高效地将预训练大语言模型架构转换为带有门控循环结构的线性模型的线性化技术。
目前本研究工作已被 ICML 2025 接收,代码模型已全部开源。
论文标题:
Liger: Linearizing Large Language Models to Gated Recurrent Structures
论文链接:
https://arxiv.org/abs/2503.01496
代码链接:
https://github.com/OpenSparseLLMs/Linearization
模型链接:
https://huggingface.co/collections/linear-moe-hub/liger-67d904bffd7f9b77ade7747d
大语言模型(Llama、Mistral等)在各种序列建模任务上取得了很好的表现,特别是基于 Transformer 架构的大语言模型已经被广泛验证了其序列建模任务的有效性,然而这种架构也面临着它的固有缺陷:
1. 注意力机制关于序列长度二次方的计算复杂度,每次为了生成下一个词都需要回顾历史序列数据进行注意力计算,导致 Transformer 架构模型在长序列场景下效率低下;
2. KV-Cache 机制需要保存历史序列数据用于后续计算,导致显存压力随着序列长度增长而升高。
传统 Transformer 架构模型的效率瓶颈愈发凸显,如何在不牺牲性能的前提下实现高效推理,成为学术界与工业界共同关注的焦点。
在这一背景下,基于线性序列建模方法的模型架构崭露头角,因为线性循环模型在架构上具有明显优势:
1. 线性注意力机制关于序列长度的线性计算复杂度,每次生成下一个词仅需要访问固定大小的 memory/state,计算效率高;
2. 无需 KV-Cache,推理生成阶段的显存占用恒定,无论生成序列有多长,显存占用一直维持恒定不变。
得益于其高效性质能够完美解决 Transformer 架构的固有缺陷,线性循环架构模型展现出了作为 LLM 基础架构的优势。
然而验证一种新兴的模型架构的有效性并不容易,这是因为训练一个参数量非常大的模型动辄需要上千乃至上万亿的高质量数据量,并且算力需求极其高昂,需要在大规模显卡集群上对随机初始化的大模型进行从头预训练。
因此从头训练此类线性循环模型成本高昂,并且通常难以匹配现有 Transformer LLM 的性能,使得绝大多数研究人员望而却步,难以实际投入如此高成本训出一个效果可能并不怎样的线性 LLM。
现在既然我们已经有了预训练好的 Transformer 大模型(Llama、Mistral 等),将现有模型架构进行调整为线性循环模型架构并在此基础上进一步训练或许是成本更低的方案,我们称之为模型架构线性化。
然而现在的线性模型为了拟合 Transformer 架构的 Softmax Attention 效果,需要在原有线性注意力上增加各种模块,包括 Feature Mapping、门控机制等,能够一定程度上提升原有线性模型的表现。
然而现有线性化方法仍未探究如何更好地将 Transformer 线性化为门控循环结构的线性模型,并且在线性化场景下这些额外模块需要初始化进行训练,这增加了架构复杂性和差异性,额外增加了线性化成本。
在此背景下,Liger 应运而生,这是一个极其高效、简洁且通用的线性化技术,仅需要极少量的微调成本即可将预训练的 Transformer LLM 线性化为门控循环结构,成功恢复原模型 93% 以上的性能,同时实现高效线性计算复杂度的序列建模。
方法描述
Liger 的核心目标是通过简洁且低成本的训练进行模型结构转换,将预训练 LLM 的权重直接迁移至门控循环架构中,避免从头预训练的高昂成本。
基于门控机制的线性循环模型需要独立设计门控模块,导致引入了额外的可训练参数且增加了模型复杂度。Liger 巧妙运用 LLM 中固有的参数冗余特性,通过将键矩阵(Key Matrix)进行变换用于门控机制构建:
具体通过池化(Pooling)的无参操作,直接从键投影矩阵中提取门控信息,从而无需新增可训练参数。由于线性循环模型去除了 Softmax 操作,这可能导致 QK 的乘积未进行归一化数值膨胀而无法拟合原始输出的分布,因此线性循环模型通常需要引入可学习的 Feature Mapping 函数以拟合 Softmax Attention。
具体实现中,我们将 Feature Mapping 简化为 Softmax 函数分别作用在 Q 和 K 上,提供 QK 乘积数值归一化的稳定性,确保与原始 LLM 注意力机制的兼容,同时无需引入任何可训练参数,通过完全复用 LLM 权重减少了模型架构复杂度和差异性,而无需多阶段训练,从而进一步减少线性化成本并提高模型表现。
Liger 方法能够兼容各种带有门控机制的线性循环模型架构,十分灵活高效。
在进行模型结构转换后,Liger 采用低秩适应(LoRA)技术对模型进行微调以适应线性循环模型架构。
Liger 线性化仅仅是改变了注意力层 QKV 的运算顺序,通过右乘核技巧达到线性高效计算,因此仅需要采用 LoRA 对注意力层的 QKV 投影矩阵进行低秩分解训练,而无需对整个模型进行全参数微调,训练目标采用自回归的下一词元预测(Next Token Prediction),损失函数为交叉熵损失(Cross-Entropy Loss):
LoRA 轻量微调使得 Liger 线性化过程中能够充分保留 LLM 预训练知识,降低线性化成本并快速恢复大部分性能。
混合机制:Liger Attention为了进一步提升线性化表现,本文提出了 Liger Attention 混合注意力机制,通过结合窗口注意力机制(Sliding Window Attention,SWA)与门控循环建模(Gated Recurrent Modeling,GRM)达成层内线性序列建模方法与注意力机制的混合,同时保留线性计算复杂度的高效性。
Liger 也能够用于层间混合架构的高效线性化,每 7 层门控循环模块后插入1层标准注意力模块,既能捕捉长程依赖,又通过局部注意力增强关键信息的处理,进一步提升了模型适应性。
实验分析
作者通过实验对比了 Liger 与现有的各种模型架构线性化方法,结果表明 Liger 在训练成本都小于其它方法的前提下,仅需要 20M 训练词元的成本就能够恢复预训练 Transfomrer 大模型 93% 以上的性能,在各种语言建模任务均接近或超过现有的 SOTA 线性化方法,非常接近 Llama、Mistral 等 Transformer 架构的 LLM 表现。
得益于线性模型的架构优势,Liger 的推理时间岁序列长度线性增长,16K 的序列长度推理较 Flash Attention 加速 2 倍,处理 32K 长度序列时,Liger 的 GPU 内存占用恒定在 16.37GB,而原始基于 Flash Attention 的 Llama-3 因显存不足(OOM)无法完成推理。
Liger 展现出了模型扩展性的优势,从 1B 到 8B 的模型参数规模,Liger 均展现出稳定的性能恢复表现和模型扩展能力。
同时 Liger 技术非常灵活通用,对各种带有门控机制的线性循环模型的架构线性化均十分有效,这为验证新兴线性模型架构的有效性提供了捷径。
具体技术细节与更多结果分析请参考原论文。
总而言之,Liger 是一个极其高效、简洁且通用的线性化技术,仅需要极少量的微调成本即可将预训练的 Transformer-based LLM 线性化为门控循环结构。
不仅在序列建模任务上媲美甚至超越原有 Transformer-based 的大语言模型,同时能够享受线性模型架构的高效性,为更高效地部署具有线性时间推理和恒定内存占用的大规模 LLM 提供了一条有希望的途径。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
·