本文深入探讨了使用大型语言模型(LLM)进行评估时面临的挑战,包括评估结果的不一致性、偏见、对输入扰动的敏感度低、以及难以与人类评估对齐等问题。文章还提供了缓解这些问题的策略,例如采用“自我一致性”设置、注意答案长度差异、遵循评估模型训练集格式等。此外,文章强调了在特定领域,人工评估的专业性至关重要。最后,文章指出了LLM在识别幻觉和与人工评估一致性方面的局限性。
🧐 **评估结果的不一致性**: LLM评估模型在多次执行相同prompt时,结果可能因温度参数等因素而异。为解决此问题,建议采用“自我一致性 (self-consistency)”的prompt设置,多次运行并取多数结果。
⚖️ **LLM的偏见问题**: LLM评估模型可能偏好自己的输出模式,导致对模式相似的结果评分偏高。此外,LLM还存在位置偏差和冗长偏好,即更倾向于特定位置的答案和更长的答案。
⚠️ **输入扰动敏感度低**: LLM评估模型对输入扰动的辨识效果较差,难以提供一致的评分范围。例如,对于施加相同噪声的文本,评估结果无法反映噪声程度。
🤔 **难以对齐人类答案**: LLM评估结果与人类评估结果之间的一致性有待提高。在特定领域,如医学、法律等,人工评估的专业性至关重要,标注员的专业知识水平将直接影响评估结果的质量。
💡 **幻觉与一致性挑战**: LLM在识别幻觉(尤其是部分幻觉)方面存在困难。此外,在总结、输入遵循忠实度等任务上,LLM与人工评估的一致性不高。
这是 让 LLM 来评判 系列文章的第六篇,敬请关注系列文章:
LLM 评估模型已知偏差及缓解措施
缺乏内部一致性 :同一 prompt 输入评估模型执行多次得到的结果可能不一样 (如果温度参数不设为 0)。缓解措施:遵循 “自我一致性 (self-consistency)” 设置 prompt,输入模型执行多次并保留多数结果
自我偏好 :LLM 评估模型更偏好自己的输出模式,因此会对模式相似的结果评分偏高。https://arxiv.org/abs/2404.13076输入扰动不敏感 :评估模型对扰动输入的辨识效果较差,难以提供一致的评分范围(更多实验结果可以参考llmjudge/README.md)。例如对于施加了相同程度噪声的文本,使用评估模型评估文本质量的评分无法反映噪声的程度。https://arxiv.org/abs/2406.13439https://twitter.com/aparnadhinak/status/1748368364395721128https://github.com/LeonEricsson/llmjudge/blob/main/README.md要求模型先输出详细的推理过程再输出评分https://twitter.com/seungonekim/status/1749289437165769177
位置偏差 :评估模型更偏好特定位置的答案。例如在成对比较时,Claude 和 GPT3.5 在多次测试中通常会偏好某一个位置,例如第一个或第二个答案。https://arxiv.org/abs/2306.05685冗长偏好 (长度偏差) :评估模型更偏好冗长的答案。缓解措施:考虑答案中的长度差异https://arxiv.org/abs/2404.04475
难以对齐人类答案 :https://arxiv.org/abs/2308.15812在所有评估中,人工评估是否可以作为一个不错的基线尚有争议。例如在某些特定领域 (如医学、法律、数学等),如果标注员专业性不够,那么得到的结果可能跟直接采用 LLM 一样差。https://arxiv.org/abs/2202.06935
格式偏差:如果输入模型的 prompt 格式与其训练数据的格式相差甚远,可能导致模型的评估结果不准确。例如,成对比较模型的训练集数据格式中提供了参考答案,如果在评估时没有给定参考答案或者给定的参考答案格式有误,那么评估结果就不可信。https://arxiv.org/pdf/2310.17631缓解措施:仔细遵循评估模型训练集 prompt 格式 (比如指令微调模型的格式)。
选择合适的 LLM 评估任务
LLM 评估特性:
很难识别幻觉:尤其是部分幻觉 (与事实非常相近,仅有微小的区别而导致错误)。(可以参考这两篇论文:HaluEval: A Large-Scale Hallucination Evaluation Benchmark for Large Language Models和SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models)。https://arxiv.org/abs/2305.11747https://arxiv.org/abs/2303.08896许多任务上与人工评估一致性不高:如总结任务(也可以参考G-Eval: NLG Evaluation using GPT-4 with Better Human Alignment)、输入遵循忠实度,更多任务请参考LLMs instead of Human Judges? A Large Scale Empirical Study across 20 NLP Evaluation Tasks。https://arxiv.org/abs/2304.02554https://arxiv.org/abs/2303.16634https://arxiv.org/abs/2307.16877https://arxiv.org/abs/2406.18403
英文原文:https://github.com/huggingface/evaluation-guidebook/blob/main/translations/zh/contents/model-as-a-judge/tips-and-tricks.md
原文作者: clefourrier
译者: SuSung-boy
审校: adeenayakup
内容中包含的图片若涉及版权问题,请及时与我们联系删除