PaperWeekly 前天 17:22
从“比像素”到“懂语义”!Video-Bench实现视频质量精准打分,突破73%人类认同率
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

上海交大等机构提出的Video-Bench,是一个创新的视频评估框架,利用多模态大模型(MLLM)模拟人类认知,实现对AI生成视频的精准评估。它通过链式查询和少样本评分技术,在视频-条件对齐和视频质量两个维度上表现出色,与人类判断高度相关。该框架为视频生成模型的优化提供了可靠的评估标准,推动AI内容评估的进步。

👁️‍🗨️ Video-Bench的核心在于构建了双维度评估框架,分别关注“视频-条件对齐”和“视频质量”。前者评估视频内容与文本指令的符合程度,后者则侧重于视频本身的视觉和美学表现。

💡 Video-Bench引入了链式查询技术,通过多轮问答的方式,逐步评估视频与文本提示的一致性,有效解决了跨模态对比的难题。同时,少样本评分技术通过对比多个视频,将主观的美学评价转化为可量化的客观标准。

📈 实验结果表明,Video-Bench在视频-条件对齐和视频质量评估上均显著优于传统方法,尤其在对象类别一致性方面表现突出。该基准还通过人类评估验证了其可靠性,并为视频生成模型的优化提供了技术标尺。

让你更懂AI的 2025-06-16 18:07 北京

视频评估新标尺来了!

现如今,视频生成技术正以前所未有的速度革新着我们的视觉内容创作方式。从电影制作到广告设计,从虚拟现实到社交媒体,高质量且符合人类期望的视频生成模型正变得越来越重要。如何准确评估这些模型的性能,确保它们生成的视频准确符合人类的审美和需求,成为了一个亟待解决的问题。 


来自上海交通大学、斯坦福大学、卡内基梅隆大学等机构的研究团队提出了创新的视频评估框架 Video-Bench。该框架让多模态大模型(MLLM)能够“像人一样评判视频”。不同于传统方法机械计算像素差异,这套基准通过模拟人类的认知过程,建立起连接文本指令与视觉内容的智能评估体系。


Video-Bench 实现了与人类判断 73% 的高相关性,显著优于现有评估方法。实验结果表明,该基准不仅能精准识别生成视频在物体一致性(0.735 相关性)、动作合理性等维度的缺陷,还能稳定评估美学质量等传统难题。


这些突破为视频生成模型的优化提供了可靠的技术标尺,推动着 AI 内容评估从“计算相似度”迈向“理解质量”。

代码链接:

https://github.com/Video-Bench/Video-Bench.git

论文地址:

https://arxiv.org/html/2504.04907v1



问题背景

当前,视频生成技术正以前所未有的速度发展,Sora 等模型的突破让“文字到视频”的创作变得简单便捷。然而,一个核心问题始终存在:如何判断 AI 生成的视频是否真正符合人类的期待?


基于此,该团队推出了一个全面对齐人类偏好的自动化评估策略的视频生成基准 Video-Bench。研究以如下的两点作为工作的出发点:




基于MLLM的自动化视频评估框架Video-Bench

如图 1 所示,Video-Bench 的核心创创新性主要体现在两方面:


1. 系统性地构建了覆盖视频-条件对齐(Video-Condition Alignment)和视频质量(Video quality)的双维度评估框架。


2. 引入了链式查询(Chain-of-Query)和少样本评分(Few-shot scoring)两项核心技术。


链式查询通过多轮迭代的“描述-提问-验证”流程,有效解决了文本与视频跨模态对齐的评估难题;少样本评分则通过多视频对比建立相对质量标尺,将主观的美学评判转化为可量化的客观标准。

▲ 图1. Video-Bench 框架概览


1. 双维度评估框架


Video-Bench 将视频生成质量解构为“视频-条件对齐”和“视频质量”两个正交维度,分别评估生成内容与文本指令的符合度以及视频本身的观感质量。


视频-条件一致性关注评估生成的视频是否准确地反映了文本提示中的内容,包括以下几个关键维度对象类别一致性、动作一致性、颜色一致性、场景一致性、视频-文本一致性。


视频质量的评估则侧重于视频本身的视觉保真度和美学价值。包括成像质量、美学质量、时间一致性、运动质量。


2. MLLM 驱动评估框架


Video-Bench 的评估框架利用多模态大语言模型(Multimodal Large Language Model,MLLM)的强大能力,通过链式查询技术和少样本评分技术,实现了对视频生成质量的高效评估。


(1)链式查询技术:如图 2 所示,通过多轮问答的方式,逐步深入地评估视频与文本提示之间的一致性。这种方法避免了直接的跨模态比较,而是先将视频内容转换为文本描述,然后通过一系列精心设计的问题,逐步检查视频内容是否与文本提示完全一致,有效解决了跨模态对比的语义鸿沟问题。

▲ 图2. 视频-条件对齐评估的链式查询


(2)少样本评分技术:如图 3(b)所示,模仿人类横向比较的本能,通过同时对比多个同主题视频,使抽象的美学评价变得可量化。例如在评估“电影感”时,系统会横向比较不同生成结果的运镜流畅度、光影层次感,而非孤立打分。

▲ 图3. 评分策略示意图。(a) 直接评分是根据标准给出单一分数,通常会得出一个平均评分;(b) 少样本评分通过多个示例进行校准,提供从差到好的细致评估。



实验结果

1. 评估性能对比实验


本研究将 Video-Bench 与当前主流评估方法进行了系统性对比。在视频-条件对齐维度,Video-Bench 以平均 0.733 的 Spearman 相关系数显著优于传统方法 CompBench;在视频质量维度,其 0.620 的平均相关性同样领先 EvalCrafter。


特别值得注意的是,在对象类别一致性这一关键指标上,Video-Bench 达到 0.735 的相关性,较基于 GRiT 的方法提升 56.3%。

2. 人类对齐验证


为验证评估结果的可靠性,组织了 10 人专家小组对 35,196 个视频样本进行标注。评估者间一致性(Krippendorff's α)达 0.52,与人类自评水平相当。

3. 消融实验


链式查询使视频-条件对齐评估提升了 9.3%,少样本评分将成像质量评估相关性从 46.1%(单样本)提升至 62.4%(7 样本)。组合使用两项技术时,评估稳定性(TARA@3)达 67%,Krippendorff's α 达 0.867,验证了这些组件设计的有效性。

4. 模型性能基准测试


对 7 个主流视频生成模型的测评发现,商业模型整体优于开源模型(Gen3 综合得分 4.38 v.s. VideoCrafter2 3.87),不同模型存在显著特长差异(如 CogVideoX 在视频-文本一致性领先,而 Gen3 在成像质量最优)。


另外,当前的模型在动作合理性(平均 2.53/3)和动态模糊(3.11/5)等动态维度表现较弱。

5. 鲁棒性测试


测试评估稳定性发现,添加高斯噪声后,视频-文本一致性评估误差 <5%,且三次重复实验的评分一致性达 87%。另外,Video-Bench 对不同复杂度提示的评估稳定性优于基线方法 32%。



总结

该研究提出的 Video-Bench 是一个基于多模态大语言模型(MLLM)评估的人类对齐视频生成基准测试体系。通过大量实验和人类评估研究,验证了该基准在评估效率以及与人类偏好高度对齐方面的显著优势。


研究进一步揭示了通过少样本学习和链式查询技术提升自动评估效果的潜力,为相关组件设计提供了重要洞见。这项工作旨在为视频生成模型的研发提供一个高度人类对齐的 MLLM 视觉评估基准,推动该领域的未来发展。


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Video-Bench 视频生成 AI评估 多模态大模型
相关文章