Hugging Face 前天 00:51
让 LLM 来评判 | 技巧与提示
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文是关于使用LLM评估模型的系列文章之一,探讨了LLM评估模型中存在的多种偏差,例如缺乏内部一致性、自我偏好、输入扰动不敏感、位置偏差、冗长偏好、难以对齐人类答案以及格式偏差等。文章深入分析了这些偏差对评估结果准确性的影响,并提出了相应的缓解措施,如采用自我一致性设置、陪审团机制、调整答案位置、考虑答案长度差异等。此外,文章还强调了LLM在识别幻觉和与人工评估一致性方面存在的挑战,为LLM评估提供了有价值的参考。

🧐 **缺乏内部一致性:** LLM评估模型在多次评估同一prompt时,结果可能不一致,特别是在温度参数未设置为0时。 缓解措施包括采用“自我一致性”设置,即多次运行prompt并保留多数结果。

🎭 **自我偏好:** LLM评估模型倾向于偏好与自身输出模式相似的结果,导致评分偏高。 建议采用陪审团机制来缓解这种偏见。

🔍 **输入扰动不敏感:** 评估模型对输入中的微小扰动(如噪声)不敏感,无法准确反映文本质量的变化。 解决办法尚在探索中,可以尝试要求模型先输出详细的推理过程再给出评分。

📍 **位置偏差:** 在成对比较等任务中,LLM评估模型可能更偏好特定位置的答案。 缓解措施包括随机调整答案位置,或者计算所有选项的对数概率并进行归一化。

📏 **冗长偏好:** LLM评估模型倾向于给冗长的答案更高评分。 解决方法是考虑答案之间的长度差异,进行调整。

⚠️ **难以对齐人类答案:** LLM评估结果与人类评估结果可能不一致,尤其是在特定领域。 标注员的专业性不足可能导致结果偏差。 评估时需谨慎选择。

原创 Hugging Face 2025-04-09 10:31 广东

LLM 评估模型有哪些已知偏差,我们又该如何缓解?

这是 让 LLM 来评判 系列文章的第六篇,敬请关注系列文章:

LLM 评估模型已知偏差及缓解措施

    缺乏内部一致性 :同一 prompt 输入评估模型执行多次得到的结果可能不一样 (如果温度参数不设为 0)。
      缓解措施:遵循 “自我一致性 (self-consistency)” 设置 prompt,输入模型执行多次并保留多数结果
    自我偏好 :LLM 评估模型更偏好自己的输出模式,因此会对模式相似的结果评分偏高。https://arxiv.org/abs/2404.13076
      缓解措施:采用陪审团机制
    输入扰动不敏感 :评估模型对扰动输入的辨识效果较差,难以提供一致的评分范围(更多实验结果可以参考llmjudge/README.md)。例如对于施加了相同程度噪声的文本,使用评估模型评估文本质量的评分无法反映噪声的程度。https://arxiv.org/abs/2406.13439https://twitter.com/aparnadhinak/status/1748368364395721128https://github.com/LeonEricsson/llmjudge/blob/main/README.md
      缓解措施:
    位置偏差 :评估模型更偏好特定位置的答案。例如在成对比较时,Claude 和 GPT3.5 在多次测试中通常会偏好某一个位置,例如第一个或第二个答案。https://arxiv.org/abs/2306.05685
      随机调整答案位置
      计算所有选项的对数概率并归一化
      缓解措施:
    冗长偏好 (长度偏差) :评估模型更偏好冗长的答案。
    难以对齐人类答案 :https://arxiv.org/abs/2308.15812
      在所有评估中,人工评估是否可以作为一个不错的基线尚有争议。例如在某些特定领域 (如医学、法律、数学等),如果标注员专业性不够,那么得到的结果可能跟直接采用 LLM 一样差。https://arxiv.org/abs/2202.06935
    格式偏差:如果输入模型的 prompt 格式与其训练数据的格式相差甚远,可能导致模型的评估结果不准确。例如,成对比较模型的训练集数据格式中提供了参考答案,如果在评估时没有给定参考答案或者给定的参考答案格式有误,那么评估结果就不可信。https://arxiv.org/pdf/2310.17631
      缓解措施:仔细遵循评估模型训练集 prompt 格式 (比如指令微调模型的格式)。

选择合适的 LLM 评估任务

LLM 评估特性:


英文原文:https://github.com/huggingface/evaluation-guidebook/blob/main/translations/zh/contents/model-as-a-judge/tips-and-tricks.md

原文作者: clefourrier

译者: SuSung-boy

审校: adeenayakup

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

LLM评估 模型偏差 缓解措施 人工智能 评估方法
相关文章