智源社区 05月30日 16:08
视频推理界的“福尔摩斯测试”:所有大模型,统统不及格 | 论文代码开源
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

腾讯ARC Lab和香港城市大学联合推出的Video-Holmes,是一个针对多模态大模型复杂视频推理能力的全新Benchmark。它通过让模型参与“推理杀人凶手”等高难度任务,挑战现有模型的推理极限。测试结果显示,现有大模型在多项测试中均未达标。Video-Holmes规避了现有基准的局限性,采用270部短电影和7种高推理要求的问题,旨在评估模型主动搜索、整合和分析多线索的能力。该Benchmark已开源,为视频推理领域的研究提供了新的评估工具。

🕵️‍♀️ Video-Holmes是一个新的视频推理Benchmark,由腾讯ARC Lab和香港城市大学联合推出,旨在评估多模态大模型在复杂视频推理任务中的表现。

🎬 该Benchmark的核心是让模型参与“推理杀人凶手”、“解析作案意图”等高难度推理任务,以测试它们在复杂视频推理方面的能力边界。

🤔 Video-Holmes规避了现有Benchmark的痛点,采用270部1-5分钟的“推理短电影”,并设计了7种高推理要求的单选题,要求模型提取和串联多个分散在电影中的关键信息来推导出最终的真相。

📉 测试结果显示,即使是强大的模型,如Gemini-2.5-Pro,在Video-Holmes的测试中也仅达到45%的准确率,所有大模型在各项测试中全部不及格。

🚀 Video-Holmes已开源,提供了“一键测评懒人包”,包括代码、数据集等,研究人员可以使用它来评估自己的模型,并分析推理过程。

一个新的Benchmark,竟让大模型在复杂视频推理这事儿上统统不及格!

这就是腾讯ARC Lab和香港城市大学最新推出的Video-Holmes——

如其名,它可以说是视频推理界的“福尔摩斯测试”通过让多模态大模型参与推理杀人凶手, 解析作案意图”等高难度的推理任务,以展现他们复杂视频推理能力的边界

而且Video-Holmes可以说是规避了现在业内已有的Benchmark痛点,即视频源和问题都偏简单,没法反映推理模型和非推理模型之间的差距。

举个例子

在这个例子中,为了寻找男人真正的死因,模型需要主动思考需要关注的视觉信息,并通过逻辑关联分散在不同视频片段中的多个相关线索进行推理,最后发现男人的死因居然是:“过度使用超能力”?!

结果啊,测试的成绩可谓是大跌眼镜。

所有大模型,在各项测试中全部不及格

(SR代表社会推理;IMC意指意图与动机链;TCI表示时间因果推理;TA时间线分析;MHR即多模态提示推理;PAR为物理异常推理;CTI代表核心主题推理。)

值得一提的是,这个Benchmark的“一键测评懒人包”,目前已经上线到了GitHub和HuggingFace,有做视频推理相关的小伙伴,可以去挑战一下了(地址见文末)。

让大模型全军覆没的新Benchmark

正如刚才提到的,现有视频推理基准(如 VCR-Bench、MVBench 等)主要评估模型的视觉感知和接地能力。

大多数问题也是基于显式提示或孤立视觉线索(如 “女人穿了什么”),无法模拟人类在现实中主动搜索、整合、分析多线索的复杂推理过程。

即使是较为前沿的模型,在这些基准上的提升也非常有限(如从 68.3% 到 69.4%),难以验证模型的真实推理能力。

因此,团队收集并人工标注了270部1-5分钟的“推理短电影”,并设计了7种高推理要求的单选题,强迫模型提取,串联多个散布在电影中的关键信息来推导出最终的真相。

值得注意的是,设计的问题是由DeepSeek来生成,并且也是由DeepSeek来评估的响应。

至于问题的类型(上文我们提及的几大类型),具体的“打开方式”如下:

再深入到具体问题的回答,各个大模型回答结果如下(以SR和IMC为例):



测试结果显示,即使强大入Gemini-2.5-Pro的闭源模型,也仅达到了45%的准确率。

并且Video-Holmes能够反应推理模型和对应非推理版本之间的Gap——

SEED-Bench-R1 比 Qwen2.5-VL-7B提升了5个点,而Gemini-2.0-Thinking比Gemini-2.0提升了整整12个点!

除此之外,团队进一步还分析了模型的推理过程,结果显示,现有模型整体上能够正确感知视觉信息,但它们普遍在线索串联信息(推理能力)上欠缺,以及容易遗漏关键的视觉信息。

注:Video-Holmes的标注、构建、测试、推理过程分析的资料和代码,以及论文全部都开源啦(见文末)~

如何“食用”?

大家若是想下载Video-Holmes,可以运行如下代码:

git clone https://github.com/TencentARC/Video-Holmes.gitcd Video-Holmespip install huggingface_hubpython download.py —hf_token YOUR_HUGGINGFACE_ACCESS_TOKENunzip Benchmark/videos.zip -d Benchmark/unzip Benchmark/annotations.zip -d Benchmark/

团队还为基线模型提供了一体化的评估代码:

python evaluate.py —model_name YOUR_MODEL_NAME —model_path YOUR_MODEL_PATH (optional)

以及可支持的大模型名单如下:

还可以通过指定——model_path参数或实现以下函数来定制模型:prepare_your_model(第388行)和generate_your_model(第439行)。

推理过程分析

首先需要应用DeepSeek API密钥,然后可以运行以下命令来分析模型的推理过程:

python evaluate_reasoning.py —model_name YOUR_MODEL_NAME —api_key YOUR_API_KEY

生成你的“福尔摩斯测试”

要为带有注释的视频生成问题,你可以运行以下命令:

cd Pipelinepython generate_questions.py —api_key YOUR_API_KEY

那么你觉得这个新Benchmark如何?感兴趣的话就快去试试吧~

 HF Daily Paper:
https://huggingface.co/papers/2505.21374

 Homepage:
https://video-holmes.github.io/Page.github.io/

 Code:
https://github.com/TencentARC/Video-Holmes

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

🌟 点亮星标 🌟

科技前沿进展每日见

内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Video-Holmes 视频推理 大模型 Benchmark 多模态
相关文章