index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
加拿大麦吉尔大学与加州大学圣芭芭拉分校合作推出DrafterBench,这是首个针对工程图纸修改任务的大模型评估基准。该基准通过模拟真实工程命令,全面考察大语言模型在结构化数据理解、工具调用、指令跟随和批判性推理等方面的能力。评测结果显示,尽管GPT-4o、Claude 3.5 Sonnet等主流大模型在部分任务上表现出一定潜力,但整体执行精度和流程完整性仍远未达到工程一线需求。研究揭示了模型在参数定义、变量传递、工具组合逻辑等方面存在常见错误,影响了最终任务完成度。DrafterBench旨在为大模型在工程领域的落地应用提供更真实的考核标准。
🏗️ **DrafterBench填补工程自动化评估空白:** 该基准是首个专注于工程图纸修改任务的评测套件,通过模拟真实工程指令,旨在检验大语言模型(LLM)在土木工程等领域的实际应用能力,为评价模型是否能胜任“一线打工任务”提供了首个量化标准。
🎯 **多维度考察模型工程实战能力:** DrafterBench不仅要求模型理解图纸指令,更全面评估其结构化数据理解、工具调用(包括工具链组合与参数正确性)、指令跟随(长指令的多任务执行)以及批判性推理(识别指令缺陷并补全)等四大核心能力,以模拟真实的工程工作流。
💡 **主流模型表现喜忧参半,落地仍有挑战:** GPT-4o、Claude 3.5 Sonnet等SOTA模型在DrafterBench评测中得分普遍超过65分,显示出一定的工程任务处理潜力,但整体水平与工程一线对精度和流程完整性的要求仍有显著差距。模型在工具调用和批判性推理方面能力分化明显。
⚠️ **模型常见错误暴露工程应用瓶颈:** 通过自动化错误分析,研究发现模型常犯的错误包括参数定义不清、变量传递失败、函数调用逻辑混乱等,这些细节性错误即使在多数步骤正确的情况下,也会导致图纸修改任务的最终失败,影响了整体任务完成度。
🚀 **DrafterBench推动AI工程应用落地:** 该基准的推出标志着大模型评估从“会不会”转向“干不干得好”的落地考核。未来,DrafterBench将扩展至图纸校审、规范检测等更多工程场景,为培养真正能服务于工程现场、高容错、强判断的AI助手提供数据支持和验证路径。
新智元 2025-07-18 06:23 北京

编辑:LRST
【新智元导读】首个工程自动化任务评估基准DrafterBench,可用于测试大语言模型在土木工程图纸修改任务中的表现。通过模拟真实工程命令,全面考察模型的结构化数据理解、工具调用、指令跟随和批判性推理能力,研究结果发现当前主流大模型虽有一定能力,但整体水平仍不足以满足工程一线需求。
在AI竞速的今天,大语言模型(LLM)早已不满足只在象牙塔里「背书解题」。当GPT-4o刷题通过物理奥赛、DeepSeek熟练搭建网站之后,LLM必须直面一个更现实的问题:这些号称「专家级」的大模型,能不能真的下工地?能不能帮工程打工人减负?在钢筋水泥的图纸世界里,它们是得力助手,还是纸上谈兵?答案尚未揭晓,但DrafterBench迈出了评估的第一步。来自加拿大麦吉尔大学AIS实验室的研究团队与加州大学圣芭芭拉分校(UCSB)合作,正式推出面向工程自动化任务的大模型评估基准——DrafterBench。这是首个针对「一线工程图纸修改任务」设计的大规模评测套件,旨在验证和揭示现有LLMs能否胜任土木工程等领域中真实的「打工任务」。
论文链接:https://arxiv.org/abs/2507.11527代码链接:https://github.com/Eason-Li-AIS/DrafterBench数据链接:https://huggingface.co/datasets/Eason666/DrafterBench
为什么需要DrafterBench?工程图纸修改,是土木工程、建筑设计等领域最耗时间、最高频的任务之一,也是自动化改造迫切程度极高的一环。每天成千上万的一线工程师、制图员在重复地处理「改一根梁的位置」「把这根管道直径加粗一点」「为这个构件增加标注」这类十分琐碎但又关系重大的任务。
这类工作往往工作量大、标准高、容错低,但技术门槛不高,对工作者在「任务理解、细节处理、任务链配合」方面的综合执行力要求极强。于是研究团队提出问题:如果大模型能读懂图纸指令,调用工具链,精确修改图元,它就不只是「写PPT的高手」,更是「工程打工人福音」。
DrafterBench怎么做的?DrafterBench以图纸修改为核心任务,在20个真实项目中收集并设计了1920个高质量任务,涵盖12类指令类型,模拟了各种难度、不同风格的真实工程命令。

DrafterBench不仅让模型「按部就班」,而是全面考察以下四大任务能力维度。结构化数据理解能力:模型是否能从不同风格语句中准确提取出关键细节;工具调用能力:模型能否组合多个工具形成有效的操作链,并正确调用顺序与参数;指令跟随能力:面对一条包含多个修改目标的长指令,是否能做到任务不漏项、执行不断链;批判性推理能力:模型能否识别指令中的信息缺失、不合理内容,并尝试补全模糊的细节、完成修正。
这不是纸面作文,是工程实战。
DrafterBench如何评估模型?在DrafterBench中,模型要以「代码调用工具」的方式完成任务。这些工具涵盖图元编辑、标注调整、绘图逻辑等,彼此之间还有输入输出依赖,形成一个「工程任务链」。但问题来了:工具调用是否正确?是否合理组合?中间步骤是否成功传递?是否使用了冗余或错误命令?直接看图纸输出无法判断。因此DrafterBench设计了一整套对偶工具系统(Dual function system)。所有工具都有一份「替身」,不实际修改图纸,但记录调用顺序、参数值、变量状态,并以结构化JSON形式输出,清晰还原模型「行动路径」。DrafterBench不只看模型有没有答对,而是看它「为什么答错,哪一步出错,错在哪里」。模型表现如何? 喜忧参半!DrafterBench评测了主流SOTA大语言模型,分别为:OpenAI GPT-4o / o1系列、Claude 3.5 Sonnet、Deepseek-V3-685B、Qwen2.5-72B-Instruct、以及LLaMA3-70B-Instruct。
综合来看,这些模型表现都达到一定水准,得分普遍超过65分。其中,OpenAI o1以79.9的综合分领跑,Claude3.5 Sonnet和Deepseek-V3-685B表现也非常接近,分别为73.79和73.09。这说明当前主流大模型具备一定的工程任务处理能力,尤其在简单指令执行上表现稳定。但与此同时,模型整体水平仍远未达到工业一线对执行精度、流程完整性的实际要求。
更重要的是,不同模型在四大能力维度上呈现出显著差异。比如,在结构化数据理解任务中,模型整体表现稳定,对语言风格的鲁棒性较强。但在工具调用方面,准确率波动明显,平均可达9个百分点。对于指令跟随能力,部分模型表现出较强的任务承载能力,如OpenAI o1和Claude3.5 Sonnet抗噪声能力较好,能保持基本的任务完整性。而在批判性推理任务中,模型间能力分化尤为显著。OpenAI o1在识别指令中信息缺失、筛选关键信息方面表现突出,而Qwen2.5则在细节补充上更具优势。其余模型则在这两个维度中存在大幅度波动,表现不一。研究团队进一步使用自动化错误分析工具,对每一个任务的失败原因进行结构化溯源。结果表明,模型常见错误类型包括参数定义不清、变量传递失败、函数调用结构错乱、工具选择偏差以及多工具组合逻辑混乱。更关键的是,即便多个步骤执行正确,只要某一关键环节出现偏差,就会导致最终图纸修改失败。这也解释了为何多数模型的单项能力准确率维持在60%左右,但整体目标修改完成度却显著偏低,仅在40%左右。
结论与展望这些评估结果说明,尽管当前的大模型已有一定能力拆解复杂任务结构、调用工程工具,但它们仍难以稳健掌握完整任务链的所有细节,对实际场景的适应能力尚不足以支撑工程一线需求。如果说过去的大模型评测多数还停留在「会不会」,那么DrafterBench的贡献在于首次让模型接受了「干不干得好」的落地考核。工程现场需要的是高容错、强判断、懂规则、能执行的助手,而DrafterBench正是在为这一目标提供数据支持与路径验证。接下来,研究团队还将扩展任务类型至图纸校审、规范检测、施工日志智能生成等更多工程应用场景,持续拓展模型能力边界。你有模型,DrafterBench有任务。看看你的模型,能不能真在图纸上动真格。参考资料:















阅读原文
跳转微信打开