36氪 - 科技频道 06月10日 15:44
北大伯克利联手“拷问”大模型:最强Agent也才40分,新基准专治“不听话”的AI分析师
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了IDA-Bench,一个旨在模拟真实世界数据分析场景的全新测试基准,用于评估大模型在多轮交互中的数据分析能力。研究发现,即使是Claude-3.7和Gemini-2.5 Pro等顶尖模型,在面对不断演进的指令时,任务成功率也仅有40%。IDA-Bench通过模拟真实的数据分析师工作流程,揭示了Agent在处理复杂任务、遵循指令和自主推理方面的挑战,为改进大模型在数据分析领域的应用提供了重要参考。

💡IDA-Bench创新测试方法:IDA-Bench模拟了真实数据分析师的工作流程,通过多轮交互、不断演进的指令来测试大模型的数据分析能力,而非传统的单轮任务。

📊测试结果不尽人意:即使是顶尖的大模型,在IDA-Bench上的任务成功率也未能超过50%,这表明当前Agent在处理复杂数据分析任务时仍面临巨大挑战。

🤔Agent的“性格”差异:研究发现,不同模型在数据分析过程中表现出不同的“性格”特点。例如,Claude-3.7倾向于“过度自信”,而Gemini-2.5-Pro则显得“过度谨慎”,这导致了它们在任务执行上的差异。

⚠️常见错误类型:Agent在IDA-Bench中常犯的错误包括“幻觉” (虚构操作)、格式错误、固守首次尝试以及级联错误,这些错误都影响了任务的最终完成度。

给大模型当老师,让它一步步按你的想法做数据分析,有多难?

结果是,连Claude-3.7和Gemini-2.5 Pro这样的顶尖选手,都开始“不听话”了。

在一个全新的测试基准中,它们面对多轮、不断演进的指令,最终的任务成功率最高仅有40%。

这项名为IDA-Bench的新基准,就是为了模拟真实世界中这种“边想边改”的分析场景而生。

它不再是给模型一道题,让它一口气算完;而是模拟一位真实的数据分析师,在对话中不断给出新指令,考察Agent在多轮交互中的真实能力。

可以说,专治各种“自作主张”和“一意孤行”的AI。

值得一提的是,这项工作由一支星光熠熠的团队打造,汇集了北京大学加州大学伯克利分校的顶尖学者,其中不乏机器学习泰斗Michael I. Jordan教授,仿真科学领域专家郑泽宇 (Zeyu Zheng)副教授,以及ACM/IEEE Fellow邓小铁 (Xiaotie Deng)教授的身影。

“不听话”的AI,问题出在哪?

目前,我们看到的很多大模型数据分析工具,比如OpenAI、Gemini和Claude的网页应用,能力已然非常强大。

但现有的评估基准,大多侧重于单轮互动:用户给出一个明确的、预设好的任务,然后看Agent能否成功执行。可现实世界的数据分析,远非如此。

真实的数据分析师,工作流程是迭代式探索性的。他们会先查看数据分布,再决定如何处理异常值;会根据初步结果,调整后续的分析策略。这些决策充满了基于领域知识的“主观性”,指令也是一步步演进的。

现有基准恰恰忽略了这种动态交互过程,因此无法全面评估Agent在真实协作场景下的可靠性。

IDA-Bench:给AI一场真实的“随堂测验”

为了解决这一痛点,IDA-Bench应运而生。它旨在忠实地反映真实数据分析的主观性和交互性特征。

整个测试框架包含四大核心组件:

图1:(左) IDA-Bench的测试场景 ,(右) IDA-Bench中的任务轨迹示例

为了确保任务的真实性和时效性,防止数据污染,IDA-Bench的构建流程完全自动化。它能持续从Kaggle上发布的最新项目中提取任务,经过筛选、预处理和人工检查后,生成新的测试用例。

图2: IDA-Bench的自动化构建流程

Agent惨遭滑铁卢,最高分仅40

在这样一套“严刑拷打”下,各大模型纷纷现出原形。

初步评估结果显示,即便是最先进的大模型,成功率也不足50%。

具体来看,Gemini-2.5-Pro、OpenAI o4-mini和Claude-3.7-Sonnet-Thinking表现位列第一梯队,但其“基准达成率”(即结果达到或超过人类基准)也仅为40%。

而DeepSeek系列中,作为指令模型的DeepSeek-V3(24%)表现明显优于其“思考型”模型DeepSeek-R1(12%),这揭示了一个核心挑战:在遵循指令和自主推理之间取得平衡,对当前Agent来说非常困难。

表1: 各大模型在IDA-Bench上的表现

此外,Agent们在任务中还会犯下各种低级错误,导致提交结果无效。其中最主要的原因是根本没有生成提交文件,这往往源于模型的“幻觉”。

“自信”的Claude vs “谨慎”的Gemini

深入分析失败案例,研究团队发现不同模型展现出了迥异的“性格”。

Claude-3.7DeepSeek-R1表现得像个“过度自信”的实习生。

它们不怎么遵循用户的具体指令,而是主动推进分析流程,结果常常因为“自作主张”而错过了关键步骤和信息。比如,用户建议用一种新方法改进模型,Claude-3.7不等尝试就直接否定,并提交了之前效果较差的结果。

相比之下,Gemini-2.5-Pro则像一个“过度谨慎”的助理。它每走一步都要反复向用户寻求确认,有时一个简单的数据清洗操作能来回沟通30轮,最终因超过回合数限制而任务失败。

这些发现凸显了当前LLM Agent在真正成为可靠数据分析助手之前,仍需在理解、遵循和交互能力上进行大量改进。

论文链接:

https://arxiv.org/abs/2505.18223

项目主页:

https://github.com/lhydave/IDA-Bench

本文来自微信公众号“量子位”(ID:QbitAI),作者:关注前沿科技,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大模型 数据分析 IDA-Bench AI Agent
相关文章