智源社区 05月31日 18:43
全面评估多模态模型视频OCR能力,Gemini 准确率仅73.7%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

MME-VideoOCR 旨在评估和提升多模态大模型在视频 OCR 中的能力。它构建了包含10大类、25个子任务的精细任务体系,并创建了包含1464个视频片段和2000条人工标注问答对的高质量数据集。通过对18个主流模型进行评测,揭示了当前模型在时序理解、信息整合和复杂推理等方面的局限性。即使是顶尖模型 Gemini-2.5 Pro,准确率也仅为73.7%,表明视频 OCR 领域仍面临巨大挑战。该研究强调了视频 OCR 相对于静态图像的挑战,以及模型在处理动态因素、复杂信息和深层理解方面的不足。

📊MME-VideoOCR 构建了全面的评测框架,包含10大任务类别和25个子任务,旨在评估模型从“看见”到“理解”视频文字信息的全方位能力,重点考察模型在基础识别、时空定位、时序追踪、特殊文本解析、信息整合、场景理解、复杂推理以及模型鲁棒性等方面的表现。

🎬数据集涵盖生活记录、影视娱乐、教育科普、体育赛事、游戏直播等多元化场景,并融入运动模糊、低分辨率、复杂背景、艺术字体、文字遮挡、多语言混合等复杂因素,还特别引入了短视频、弹幕视频及AIGC视频等特殊类型的视频,总共收集了1,464个视频和2000条样本。

⏱️实验结果表明,顶尖模型如 Gemini-2.5 Pro 在视频 OCR 任务中仍面临挑战,准确率仅为73.7%,开源模型与闭源模型存在显著差距,且模型在处理长时序信息、理解文字动态变化以及进行时空推理方面存在明显短板。同时,模型有时会过度依赖语言模型的先验知识,而未能充分利用视觉信息进行判断。

📈研究表明,提供更高分辨率的视觉输入和更完整的时序帧覆盖,对于提升MLLM在动态视频场景下的OCR性能至关重要,但同时也需要关注到,更多的视觉输入可能也会导致模型难以关注到目标信息,对模型的信息提取与处理能力提出了更高要求。

多模态大模型(MLLM)在静态图像上已经展现出卓越的 OCR 能力,能准确识别和理解图像中的文字内容。

然而,当应用场景从静态图像拓展至动态视频时,即便是当前最先进的模型也面临着严峻的挑战。

MME-VideoOCR 致力于系统评估并推动MLLM在视频OCR中的感知、理解和推理能力。

主要贡献如下:

构建精细的任务体系:

    精心构建了10大任务类别,进一步细分为25 个独立任务
    评测维度超越基础识别,深入考察时序理解、信息整合及复杂推理等高阶能力。

高质量、大规模数据集:

包含了1,464 个精选视频片段,覆盖不同的分辨率、时长与场景。
构建了2,000 条高质量、经人工标注的问答对,确保评测的精确性。

揭示当前 MLLM 的能力边界与局限:

    对包括闭源与领先开源模型在内的18个主流MLLM进行了深入评测。
    系统化分析了各模型在不同视频OCR任务中的表现,明确了其优势与亟待改进的短板
    即便是Gemini-2.5 Pro,其整体准确率也仅为73.7%,显示出当前MLLM在视频OCR领域的巨大挑战。

研究背景

视频作为一种信息密度更高、场景更复杂的模态,其 OCR 任务的难度远超静态图像:

运动模糊、光影变化、视角切换以及复杂的时序关联等视频的动态因素,都对 MLLM 的视频文字识别构成了显著的障碍。

2 视频中的文字信息形式复杂多样,既可能出现在画面主体、背景场景,也可能以屏幕注释、水印或弹幕的方式存在。这要求模型能够建立稳定的时空视觉-文本关联,以实现对分布在不同位置与时间段文字信息的准确识别、整合与理解。

3 MLLM 不仅需要对视频中文字的进行精确识别,更需在视觉、时序上下文中完成语义解析与推理判断,以实现对视频整体内容的深层理解。

目前,MLLM 在视频 OCR 领域的真实性能如何?其核心局限性体现在哪些方面?我们应如何系统地评估并推动其发展?这些关键问题亟待一个明确的答案。

MME-VideoOCR 评测框架详解

MME-VideoOCR的设计核心在于其全面性与深度,旨在评估模型从“看见”到“理解”视频文字信息的全方位能力。

数据构建

MME-VideoOCR 的数据集源于部分高质量数据集和人工采集与构造,经过精心筛选与处理,确保其:

    多样性:
    涵盖生活记录、影视娱乐、教育科普、体育赛事、游戏直播等多元化场景。
    挑战性:
    融入运动模糊、低分辨率、复杂背景、艺术字体、文字遮挡、多语言混合等真实世界的复杂因素。
    时序性:
    特别设计了需要跨帧理解、追踪文字动态、整合时序信息的复杂任务,考验模型的动态处理能力。

考虑到短视频、弹幕视频及AIGC视频的逐渐普及,MME-VideoOCR额外引入了这些特殊类型的视频,增加了数据的全面性。

共收集1,464 个视频和2000条样本。


任务设计

10大任务类别25 个子任务紧密围绕视频OCR的核心挑战,重点评估模型在以下方面的能力:

    基础识别:
    在各种视频条件下准确识别文字及其属性。
    时空定位:
    识别文字在视频中的时间、空间位置。
    时序追踪:
    理解文字内容随时间的演变。
    特殊文本解析:
    对表格、图表、文档、公式、手写体等特殊文本进行有效解析。
    信息整合:
    结合视频上下文与文字进行综合理解。
    场景理解:
    在特定视频情境下解读文字的深层含义。
    复杂推理:
    基于视频中的文字信息进行逻辑判断与问答。
    模型鲁棒性:
    对于 AIGC、对抗样本和超长视频的有效理解。

评估策略

针对不同任务的特点和标准答案可能存在的灵活性,设计了字符串匹配、多选题以及 GPT 辅助评分三种评测方式。

实验发现总结

通过对18个主流MLLM的深度评测,MME-VideoOCR 揭示了以下关键发现:

整体性能:提升空间巨大

    顶尖模型面临挑战:
    Gemini-2.5 Pro虽然表现最佳,但73.7%的准确率表明,即便是SOTA模型在应对复杂视频 OCR 任务时也远未达到理想状态。
    开源模型差距显著:
    当前多数开源MLLM在视频OCR任务上的表现与顶尖闭源模型相比,存在较大差距,大多数开源模型准确率甚至不足60%。

能力短板:时序与推理是关键瓶颈

    静态易,动态难:
    模型处理单帧或短时序的文字信息相对较好,但在需要整合长时序信息、理解文字动态变化时,性能显著下降。
    时空推理能力薄弱:
    要求结合文字内容及其时空信息进行推理的任务,是当前MLLM的普遍弱点

语言先验依赖问题:模型在进行视频文字理解时,有时会过度依赖其语言模型的先验知识,而未能充分利用视觉信息进行判断。

优化关键:高分辨率与时序信息

实验指出,提供更高分辨率的视觉输入更完整的时序帧覆盖,对于提升MLLM在动态视频场景下的OCR性能至关重要

同时需要注意到,更多的视觉输入可能也会导致模型难以关注到目标信息,造成准确率的下滑,这也对模型的信息提取与处理能力提出了更高要求。

论文地址:https://mme-videoocr.github.io/

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

🌟 点亮星标 🌟

科技前沿进展每日见

内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

多模态大模型 视频OCR MME-VideoOCR 模型评测
相关文章