新智元 03月07日
微软GUI智能体OmniParser二代开源!推理延迟降低60%,大模型玩手机更溜了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OmniParser V2是一款强大的工具,旨在帮助大型语言模型(LLM)理解和操作图形用户界面(GUI)。它通过将屏幕截图转换为结构化元素,弥合了LLM与GUI之间的差距。V2版本在检测小图标和推理速度上有了显著提升,延迟降低了60%。通过与GPT-4o等多种LLM结合,OmniParser V2在ScreenSpot Pro等基准测试中表现出色,尤其是在处理高分辨率屏幕和极小目标图标时,准确率得到了显著提升。OmniParser V2的推出,为GUI自动化提供了更强大的支持,并推动了智能体在用户界面交互方面的能力。

🔎 OmniParser V2的核心功能是将UI截图转化为LLM可解释的结构化元素,从而使LLM能够基于这些元素进行下一步动作预测,解决了LLM直接操作GUI的难题。

💡 为了提升LLM对UI元素的理解,OmniParser在提示中加入了功能性的局部语义信息,通过微调模型生成图标的功能描述,显著提升了GPT-4o的理解效果,克服了其在同时执行识别语义信息和预测操作任务时的能力限制。

🚀 OmniParser V2通过采用更大规模的交互元素检测数据和图标功能描述数据进行训练,并减少图标描述模型的图像输入尺寸,实现了更高的准确率和更快的推理速度,延迟比上一版本降低了60%。

🛡️ 为了符合「微软AI原则」,OmniParser V2通过使用负责任AI数据训练图标描述模型来进行风险缓解,有助于模型尽可能避免推测出现在图标图像中的个人的敏感属性(如种族、宗教等)。

新智元 2025-03-07 13:43 北京



  新智元报道  

编辑:LRST

【新智元导读】OmniParser V2可将屏幕截图转换为结构化元素,帮助LLM理解和操作GUI;在检测小图标和推理速度上显著提升,延迟降低60%,与多种LLM结合后表现优异。

图形用户界面(GUI)自动化需要智能体具备理解和交互用户屏幕的能力。

然而,使用通用大型语言模型(LLM)作为GUI智能体仍然存在难点:1)如何可靠地识别用户界面中的可交互图标,以及 2)理解截图中各种元素的语义,并准确地将预期的操作与屏幕上的相应区域关联起来。

OmniParser通过将UI截图从像素空间「token化」为LLM可解释的结构化元素,弥合了这一差距,使得LLM能够在一组已解析的可交互元素基础上进行基于检索的下一步动作预测。

代码: https://github.com/microsoft/OmniParser/tree/master

模型: https://huggingface.co/microsoft/OmniParser-v2.0

Demo:https://huggingface.co/spaces/microsoft/OmniParser-v2

OmniParser方法概述

可交互区域检测

从UI屏幕中识别可交互区域是推理用户任务应执行何种操作的关键步骤。与其直接让GPT-4o预测屏幕上应操作的xy坐标,研究人员采用Set-of-Marks,在UI截图上叠加可交互图标的边界框,并让GPT-4V生成要操作的边界框ID。

具体而言,研究人员构建了一个独特UI截图的可交互图标检测数据集,每张图片都标注了从DOM tree提取的可交互图标的边界框。

数据采集时,首先从Bing Index热门网址中随机抽取100,000个URL,并从其DOM中提取网页的可交互区域边界框。部分网页及其可交互区域示例如图2所示。

融合功能性icon semantics

研究人员发现,仅输入带有边界框和对应ID的UI截图,往往会导致GPT-4o产生误导性预测,这一局限性可能源于GPT-4o在同时执行两个任务时的能力受限:一是识别每个图标的语义信息,二是预测特定图标的下一步操作。

为了解决这一问题,研究人员在提示(prompt)中加入功能的局部语义信息。

具体而言,对于可交互区域检测模型识别出的每个图标,使用一个微调模型生成该图标的功能描述。

通过构建专门的图标描述数据集,研究人员发现该模型在常见应用图标的描述上更加可靠;在UI截图的视觉提示基础上,加入局部边界框的语义信息(以文本提示的形式)能够显著提升GPT-4o的理解效果。

构建专用数据集

OmniParser的开发始于两个核心数据集的构建:

OmniParser V1实验结果

通过这些解析结果,OmniParser显著提升了GPT-4V在多个基准测试(ScreenSpot、Mind2Web、AITW、WindowsAgentArena)上的表现:

Multimodal Mind2Web

AITW

Windows agent arena

OmniParser V2带来哪些新东西?

OmniParser V2将屏幕理解能力提升到了新的水平。与V1相比,它在检测更小的可交互元素方面达到了更高的准确率,同时推理速度更快,使其成为GUI自动化的有力工具。

具体而言,OmniParser V2采用了更大规模的交互元素检测数据和图标功能描述数据进行训练。

此外,通过减少图标描述模型的图像输入尺寸,OmniParser V2的推理延迟比上一版本降低了60%

值得注意的是,OmniParser与GPT-4o结合后,在最新发布的 ScreenSpot Pro基准测试上达到了39.6%的平均准确率,该基准测试具有高分辨率屏幕和极小的目标图标,相比GPT-4o原始得分0.8有了显著提升。

为了加快不同智能体设置的实验速度,研究人员创建了OmniTool,一个Docker化的Windows系统,集成了一套代理所需的重要工具。

OmniTool开箱即用地支持OmniParser与多种最先进的LLM结合使用,包括OpenAI(4o/o1/o3-mini)、DeepSeek(R1)、Qwen(2.5VL)和Anthropic(Sonnet),从而实现屏幕理解、目标对齐、行动规划和执行等功能。

风险与缓解措施

为了符合「微软AI原则」和「负责任AI实践」,研究人员通过使用负责任AI数据训练图标描述模型来进行风险缓解,有助于模型尽可能避免推测出现在图标图像中的个人的敏感属性(如种族、宗教等)。

同时,研究人员鼓励用户仅在不包含有害内容的截图上使用OmniParser,最好在使用过程中保持人工审核,以尽量降低风险。

针对OmniTool,研究人员使用「微软威胁建模工具」进行威胁模型分析,并在GitHub仓库中提供了沙盒Docker容器、安全指南和示例。

参考资料:

https://www.microsoft.com/en-us/research/articles/omniparser-v2-turning-any-llm-into-a-computer-use-agent/





阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OmniParser V2 LLM GUI自动化 人工智能
相关文章