机器之心 2024年12月02日
NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

针对大语言模型(LLM)存在的幻觉问题,导致生成内容可能出现错误或与事实不符,杜克大学和Google Research的研究团队提出了一种名为自驱动Logits进化解码(SLED)的新型解码框架。SLED通过对比LLM不同层之间的输出,挖掘模型内部的潜在知识,并将其整合到原始输出中,从而提升LLM的事实准确性。该方法无需依赖外部知识库或进行额外的微调,在多种LLM和任务上都展现出显著的性能提升,同时计算开销很小,并有效抑制了输出结果的重复性问题。

🤔**LLM潜在知识挖掘**: SLED通过对比LLM不同层之间的输出,有效挖掘模型内部存储的潜在知识,这些知识可能包含了正确的答案,但无法直接从模型输出中获取。

📈**自驱动Logits进化**: SLED利用类似梯度下降的方式,将挖掘到的潜在知识整合到原始输出中,实现对输出的“自驱动进化”,从而提升输出结果的事实准确性。

🚀**广泛适用性与高效率**: SLED适用于多种LLM架构和任务,包括多选、开放式生成和思维链推理等,同时计算开销很小,不会显著增加模型的推理时间。

🚫**抑制重复性问题**: SLED有效抑制了以往方法中常见的输出结果重复性问题,进一步优化了模型的输出质量。

💡**与经典优化算法衔接紧密**: SLED与经典优化算法(如梯度下降)的衔接更为紧密自然,为后续的推理时算法提供了新的框架,并具有丰富的潜在研究方向。

2024-12-02 12:19 北京

与梯度下降等经典优化算法衔接更为紧密自然

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com


此项研究成果已被 NeurIPS 2024 录用。该论文的第一作者是杜克大学电子计算机工程系的博士生张健一,其主要研究领域为生成式 AI 的概率建模与可信机器学习,导师为陈怡然教授。


大语言模型(LLM)在各种任务上展示了卓越的性能。然而,受到幻觉(hallucination)的影响,LLM 生成的内容有时会出现错误或与事实不符,这限制了其在实际应用中的可靠性。


针对这一问题,来自杜克大学和 Google Research 的研究团队提出了一种新的解码框架 —— 自驱动 Logits 进化解码(SLED),旨在提升大语言模型的事实准确性,且无需依赖外部知识库,也无需进行额外的微调。



研究背景与思路总结


近期相关研究显示,尽管用户在访问大语言模型(LLM)时可能无法得到正确的答案,但 LLM 实际上可能已经基于海量的训练数据和漫长的训练周期学到了正确的答案,并将其存储于模型内部某处。


研究者将这类无法直观从模型输出中获得的信息称为 “潜在知识”,并用图一精炼出了对应的 “三体问题”。


图一:Factuality Decoding 的 “三体问题”


图一中,考虑到每条问题的标准答案都已包含训练数据集中,因此可以说训练时,真实世界的事实分布是已知的。LLM 的训练正是为了缩小 LLM 输出分布 和真实事实分布 之间的差距。


然而,在 LLM 的推理阶段(inference time),真实的事实分布是未知的,因此这项研究的重点便是如何挖掘模型的潜在知识分布,并利用其进一步增强模型的输出。


概括来说, SLED 方法通过对比最后一层的和前面几层的,有效地挖掘了 LLMs 内部的潜在知识。


同时,研究者也指出 LLM 中的潜在知识虽然有价值,但可能并不完美。因此,SLED 不是简单地使用这些潜在知识替换原始输出,而是通过类似于对输出  进行 “梯度下降” 的操作,将其整合到原始输出中,从而有效地平衡了两者,避免了过拟合等潜在的风险。


 图二:SLED 框架的主要流程


方法设计


为了提高事实准确性,需要确保正确的 token, 在输出分布中获得更高的概率。这一过程可以通过优化以下损失函数 L 来描述其中


研究者将这一优化过程称为 Logits 进化。有趣的是,这同时也为理解 LLM 的训练提供了新的视角 —— 不同于之前只关注训练中模型参数的更新,可以看到:



从上面的理解出发,可以预期最后一层的输出的对应的,通常要比前面几层的输出 对应的要更接近训练时的这一点也在图三中得到了验证。

 

图三:研究者对三个不同规模的 LLaMA-2 模型计算了每一层对应的交叉熵损失。结果证实,就 KL 散度而言,最终层的 Logits 输出分布比所有早期层更接近真实世界的分布


因此,受到经典梯度下降算法的启发,研究者通过如下的近似来反向估计 



这里对 的估计,实际上也就是之前提到的潜在知识,因此用来表示。在此基础上,研究者通过类似梯度下降的方式,用估计出来的潜在知识实现了对  自驱动进化,



从而得到了一个更接近事实分布的最终输出更细节的方法设计和讨论,请参考原文。


实验验证


作为一种新型的层间对比解码架构,研究者首先将 SLED 与当前最先进的方法 DoLa 进行了比较。实验覆盖了多种 LLM families(LLaMA 2, LLaMA 3, Gemma)和不同模型规模(从 2B 到 70B),还有当前备受关注的混合专家(MoE)架构。


结果表明,SLED 在多种任务(包括多选、开放式生成和思维链推理任务的适应性)上均展现出明显的事实准确性提升。



此外 SLED 与其他常见的解码方式(如 contrastive decoding,ITI)具有良好的兼容性,能够进一步提升性能。


 

最后,研究者发现,与以往的算法相比,SLED 在计算上几乎没有明显的额外开销。同时,在生成质量方面,SLED 显著抑制了以往方法中的重复性问题,进一步优化了输出结果。

 

引申思考:与目前流行的 inference-time 算法的联系


实际上,不难看出,SLED 为后续的推理时(inference-time )算法提供了一个新的框架。与目前大多数 inference-time computing 方法主要集中于 sentence level 的输出或 logits 进行启发式修改不同,SLED 与经典优化算法衔接,如梯度下降法的结合更为紧密自然。


因此,SLED 不仅优化效率更高,同时有很多的潜在的研究方向可以尝试;另一方面,与 inference time training 方法相比,SLED 不涉及模型参数层面的修改,因此优化效率上开销更小,同时更能保持模型原有性能。


总结


本研究通过引入自驱动 Logits 进化解码(SLED)方法,成功地提升 LLM 在多种任务中的事实准确性。展望未来,可以探索将 SLED 与监督式微调方法结合,以适应其他领域的特定需求如医疗和教育领域。同时,改进框架设计也将是持续关注的方向。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大语言模型 事实准确性 解码框架 潜在知识 SLED
相关文章