智源社区 07月19日 18:01
「0污染」LLM理解基准来了!20000道题14个学科全覆盖,来自微软
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

为解决现有大语言模型(LLM)基准测试中普遍存在的数据污染问题,微软亚洲研究院推出了MMLU-CF。该基准数据集基于公开数据源,通过引入三条去污染规则并扩展数据源,旨在提供更准确、公平的评估。MMLU-CF包含20,000道题目,涵盖14个学科领域,并将测试集闭源以防止数据泄露。测试结果显示,MMLU-CF的严格性显著影响了模型排名,尤其暴露了模型对污染数据的依赖性,为LLM的真实能力评估提供了更可靠的依据。

🌟 MMLU-CF的推出旨在解决传统大语言模型(LLM)基准测试中的数据污染问题,提供更公平、准确的评估。它通过引入三条去污染规则(改写问题、打乱选项、随机替换选项)来减少模型对已知数据的依赖和记忆,从而更真实地反映模型的理解和推理能力。

📊 该数据集包含20,000道题目,分为10,000道验证集(开源)和10,000道测试集(闭源),覆盖健康、数学、物理、商业、哲学、法律等14个学科领域。测试集的闭源设计是为了防止恶意数据泄露,确保评估的公正性。

📉 与现有基准测试相比,MMLU-CF的严格性导致主流大模型在MMLU-CF上的得分普遍低于在MMLU上的得分,尤其是在排名变化方面,下降的幅度往往大于上升的幅度,这表明许多模型可能过度依赖预训练数据中的污染信息。

🔍 MMLU-CF的数据构建流程包括题目收集、题目清洗、难度采样、大模型检查以及最终的去污染处理,确保了数据集的质量和无污染性。这种严谨的数据处理方法为大语言模型的评估提供了一个更具挑战性和可靠性的新标准。

编辑:LRST

近年来,随着大语言模型(LLM)的不断进步,如何准确评估其能力已经成为研究的热点问题。

诸如大规模多任务语言理解基准MMLU(Massive Multitask Language Understanding),在评估大语言模型中起到重要作用。

然而,由于开放源代码和训练数据的多样性,现有基准测试难免存在数据污染问题,影响评估结果的可靠性。

为了提供更为准确、公平的评估,微软亚洲研究院推出了MMLU-CF,它是基于公开数据源,经过去污染设计的大语言模型理解基准,并已在Huggingface上开放。

MMLU-CF是一个「无污染」的、更具挑战性的多项选择题基准数据集。

论文链接:https://arxiv.org/pdf/2412.15194

代码链接:https://github.com/microsoft/MMLU-CF

数据连接:https://huggingface.co/datasets/microsoft/MMLU-CF

数据集包含20,000道题目,分为10,000道验证集题目和10,000道测试集题目,其中验证集开源,测试集闭源,涵盖健康、数学、物理、商业、化学、哲学、法律、工程等14个学科领域。

MMLU-CF为大语言模型的评估提供了一个更加公平和可靠的基准,不仅帮助研究者准确理解模型的能力,也为未来模型优化提供了宝贵的数据支持。


MMLU-CF的贡献

消除数据污染

传统基准测试可能存在数据污染,影响评估的公正性。MMLU-CF通过引入三条去污染规则并扩展数据源,确保测试结果更可靠。

防止恶意数据泄露

研究人员将数据集分为验证集和测试集,确保测试集保持闭源,避免数据泄漏引发的不公正结果。同时,验证集开源以促进透明度,便于独立验证。

对比结果

评估结果显示,OpenAI o1在MMLU-CF测试集上的5-shot得分为80.3%,显著低于其在MMLU上取得的92.3%得分,表明了MMLU-CF基准的严格性。

图1 主流大模型在MMLU-CF的测试集的5-shot得分表现

基准对比

MMLU与MMLU-Pro基准测试主要关注任务的广度、推理能力和难度,但未考虑数据污染问题。

对于MMLU-CF,研究人员在数据收集时应用了去污染规则,确保避免数据泄露,同时将测试集保持闭源,防止恶意泄露。

以下是几款主流模型在MMLU与MMLU-CF数据集上的表现与排名变化:

图2 主流大模型在MMLU-CF和MMLU上的表现与排名

新的基准MMLU-CF扰乱了已评估的语言模型(LM)在MMLU上的性能排名。

排名前三的语言模型:OpenAI o1、Deepseek-R1和Deepseek-V3 ,保持了领先地位,排名没有任何变化。

有趣的是,在显著的排名变化(>=3位)中,排名下降的往往比上升的更为显著。

平均而言,排名下降的语言模型下降了5.14位次,而排名上升的语言模型上升了3.78位次。

这种不对称性表明,性能大幅下降比上升更容易,这可能是由于预训练语料库中的数据污染造成的。

与规模较大的语言模型相比,规模较小的语言模型在新的MMLU-CF基准测试中似乎更具破坏性。

测试集与验证集的划分

在MMLU-CF中,研究人员将数据集划分为测试集和验证集,并通过计算「绝对分数差异」评估模型的泛化能力。统计结果显示,约60%的差异值小于0.5,96%的差异值低于1.0,表明测试集和验证集的评估结果高度一致。

图3 数据构建流程图

MMLU-CF的数据构建包括以下几个步骤:

1. 题目收集:从广泛的开放互联网域收集问题,保证问题的多样性。

2. 题目清洗:确保收集到的问题质量高,适合用于评估。

3. 难度采样:确保问题的难度分布合理。

4. 大模型检查:使用GPT-4o、Gemini、Claude模型对数据的准确性和安全性进行检查。

5. 去污染处理:通过去污染处理,确保数据集的无污染性。

最终,MMLU-CF数据集分别包含了10,000道测试集域验证集题目,同时测试集保持闭源,验证集则公开以保证透明性。

去污染处理规则

为了避免无意中的污染并评估模型的推理和理解能力,研究人员采用了三条去污染规则:

• 规则1:改写问题,减少模型对已见数据的依赖。

• 规则2:打乱选项,避免模型通过记忆选项顺序做出正确答案。

• 规则3:随机替换选项,增加模型的推理难度。

图4 去污染示例

这些规则有效减少了恶意和无意的泄漏风险,确保了数据集的「无污染」性。

参考资料:
https://arxiv.org/pdf/2412.15194


内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MMLU-CF 大语言模型 基准测试 数据污染 模型评估
相关文章