机器之心 02月08日
DeepSeek-R1、o1都低于10%,人类给AI的「最后考试」来了,贡献者名单长达两页
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

AI发展迅速,现有基准不够用,AI安全中心与Scale AI打造新基准HLE。HLE包含3000多个高难度问题,涉及多学科,团队测试了一些SOTA模型,表现不佳,还探讨了相关问题。

🎯HLE是多模态基准,有广泛学科覆盖,问题包括精确匹配和多项选择

💪团队全球合作收集问题,设立奖金池吸引专家,审核流程严格

📊SOTA模型在HLE上表现差,准确度低,校准也差

🔍分析模型使用的token数量,未来模型应提升准确度并优化计算

2025-02-08 10:23 北京

o3-mini-high 可达13%,加上 Deep Research 还能翻倍。

机器之心报道

编辑:Panda


随着 AI 大模型在一个又一个的任务上达到乃至超越人类水平,人类文明似乎已经进入了与 AI 共生的时代。 


为了跟踪 AI 的发展进度,适当的基准必不可少。但现在,由于 AI 发展的速度实在太快,已有的基准已经开始不够用了。比如在常用的基准 MMLU 上,当今前沿的 LLM 已经能达到超过 90% 的准确度了!这就限制了对前沿 LLM 能力的精确度量能力。


基于此现状,Center for AI Safety(AI 安全中心)与 Scale AI 联合打造一个名字相当吸引眼球的新基准:Humanity's Last Exam,即「人类的最后考试」,简称 HLE




从名字也能看出来,其背后必然有一个雄心勃勃的团队。据介绍,HLE 是一个「位于人类知识前沿的多模态基准」,其设计目标是成为「同类中具有广泛学科覆盖范围的终极封闭式学术基准。」


现目前,HLE 已包含 3000 个问题,涉及上百门学科,包括数学、人文科学和自然科学。其中的问题主要由适合自动评估的多项选择题和简单问答题构成;每个问题都有一个已知的解,该解非常明确且易于验证,但无法通过互联网检索快速回答。


为了构建 HLE 基准,Center for AI Safety 与 Scale AI 向全球不同学科的专家寻求了帮助,最终让该论文有了一份长达两页、近千人的数据集贡献者名单:




该团队也使用该基准测试了一些 SOTA 模型,结果如下。很显然,HLE 相当难。



数据集


HLE 包含 3000 多个高难度问题,涉及一百多个科目,概况见下图 3 。



下面展示了一些问题示例:






虽然这些问题已公开发布,但该团队也表示还维护着一个私有的测试集,其中包含一些用来评估模型过拟合现象的问题。


收集数据集


该团队在技术报告中分享了 HLE 基准数据集的收集过程:「HLE 是一项全球合作的成果,其中的问题来自 50 个国家 / 地区的 500 多个机构的近 1000 名学科专家贡献者 —— 主要由教授、研究人员和研究生学位持有者组成。」


问题风格:HLE 包含两种问题格式:精确匹配问题(模型提供确切的字符串作为输出)和多项选择题(模型从五个或更多答案选项中选择一个)。HLE 是一个多模态基准,其中 10% 的问题需要同时理解文本和图像。80% 的问题是精确匹配型问题,其余的是多项选择题。


提交格式:为确保问题的质量和完整性,该团队设定了严格的提交标准。



奖金池:为了吸引高质量的投稿,该团队还设立了一个奖金池,其中包含 50 万美元。对于前 50 个问题,每个奖金 5000 美元,接下来的 500 个问题每个奖金 500 美元,具体由组织者决定。正是由于这种这种激励结构,加上任何被 HLE 接收的问题的作者都有机会成为论文合著者,吸引了有资历专家的参与,尤其是那些在其领域内拥有高级学位或丰富技术经验的专家。


收集完成后,该团队还组织人手对收集到的问题进行了审核,下图展示了其审核流程:



当前 SOTA 模型在该基准上表现如何?


有了基准,自然得对当前的模型进行一番评估。该团队评估了 SOTA 模型在 HLE 上的性能表现,并分析了它们在不同问题类型和领域上的能力。


这些模型表现如何呢?如下表所示,整体表现可以总结为一个字:差。



从 GPT-4o 到 DeepSeek-R1,当前最佳的模型的准确度表现都没能超过 10%。目前官网也已经更新了 o3-mini 的成绩,其中 high 版本能达到 13%



OpenAI CEO Sam Altman 还表示 o3-mini-high 如果使用 Deep Research,则其在 HLE 上的准确度更能倍增至 26.6%



该团队表示:「如此低分的部分原因是设计使然 —— 数据集收集过程试图过滤掉现有模型可以正确回答的问题。然而,我们在评估时注意到,这些模型的准确度也都不是零。这是由于模型推理中固有的噪声 —— 模型可能会不一致地猜对正确答案,或者猜中多项选择题答案的概率低于随机。」因此,这些模型在该数据集上的真正能力底线仍然是未知的,接近零准确度的微小变化并不能有力地表明进展。


鉴于这些模型在 HLE 上表现不佳,该团队表示应该在考虑到不确定性的前提下校准模型,而不是自信地提供错误答案,毕竟模型存在虚构/幻觉现象。为了测量校准误差(Calibration Error),该团队让模型提供答案的同时还提供置信度(范围是 0% 到 100%)。经过良好校准的模型声明的置信度应该与其实际准确度相匹配 —— 例如,在声称置信度为 50% 的问题上实现 50% 的准确度。


而表 1 的结果表明所有模型的校准都很差。在 HLE 上,模型经常以高置信度提供错误答案,这表明这些模型无法分辨这些问题何时超出其能力范围。


token 数量:具有推理能力的模型需要更多的推理时间计算。为了在评估中阐明这一点,该团队分析了各个模型使用的完成 token 的数量。如图 5 所示,所有推理模型都需要生成比非推理模型多得多的 token 才能提高性能。该团队指出:「未来的模型不仅应该提升准确度,还应该努力实现计算优化。



讨论


该团队表示,虽然目前的 LLM 在 HLE 上的准确度非常低,但最近的历史表明,这个基准很快就会饱和 —— 前沿模型的性能可在短时间内从接近零到接近完美。


他们预计,到 2025 年底,模型在 HLE 上的准确度就可能超过 50%


如果模型能在 HLE 上取得高准确度表现,则说明其在封闭式、可验证的问题和前沿的科学知识上具备了专家级的表现,但仅靠这个基准,并不能表明模型已经具备自主研究能力或者已经是所谓的「通用人工智能」。HLE 测试的是结构化的学术问题,而不是开放式研究或创造性解决问题的能力,因此这是一个重点关注技术知识和推理的测量指标。


该团队写到:「HLE 可能是我们需要对模型进行的最后的学术考试,但它远非 AI 的最后一个基准。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

HLE AI基准 SOTA模型 问题收集
相关文章