机器之心 01月03日
AAAI 2025 | 多模态大语言模型空间智能新探索:仅需单张图片或一句话,就可以精准生成3D建模代码啦!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

上海交通大学i-WiN团队提出了CAD-GPT,一种专为CAD建模设计的多模态大语言模型。该模型通过引入3D建模空间定位机制,将3D参数映射到1D语言信息维度,显著提升了MLLM的空间推理能力。CAD-GPT能够基于单张图片或文本描述,精准生成CAD建模构造序列,其性能优于DeepCAD、GPT-4和Qwen2-VL-Max等模型。该研究通过构建专门的CAD建模数据集和采用两阶段训练策略,有效扩展了LLM的窗口长度,并在多个实验中展示了其卓越的建模能力。

📍CAD-GPT模型通过设计三系列定位token,分别代替3D草图平面起点坐标、3D草图平面角度和2D草图曲线坐标的参数,使得大语言模型能够更好地理解和生成CAD建模语言。

📐该模型将全局空间3D坐标和草图平面3D旋转角度的特征展开到一维语言特征空间,转换为1D位置tokens,并纳入自定义可学习的位置嵌入,弥合了语言和空间位置之间的差距。

🖼️CAD-GPT在单张图像和文本输入条件下均表现出卓越的性能,能够精准生成包含语义信息的CAD模型,并且在空间推理能力方面优于其他模型,如DeepCAD、GPT-4和Qwen2-VL-Max。

⚙️通过消融实验,证明了3D建模空间定位机制对于模型性能的关键作用,添加该机制后,CAD-GPT可以更准确地推理空间角度、位置变化,并生成更精确的2D草图。

2025-01-03 11:32 北京

所提出模型擅长推断草图 3D 方向的变化、3D 空间位置的变化,并准确渲染 2D 草图。

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com


本文的主要作者来自上海交通大学电子信息与电气工程学院 i-WiN 中心团队,团队负责人是上海交通大学讲席教授关新平。本文的第一作者为上海交通大学博士生王思宇,研究方向涉及多模态大模型、大模型的可靠生成及其工业应用。本文的通讯作者和主要指导老师为i-WiN中心陈彩莲教授和许齐敏副研究员。


计算机辅助设计(CAD)已经成为许多行业设计、绘图和建模的标准方法。如今,几乎每一个制造出来的物体都是从参数化 CAD 建模开始的。CAD 构造序列是 CAD 模型表示的一种类型,不同于 Mesh 类型的三角网格、B-rep 格式的点、线、面表示,它被描述为一系列建模操作,包括确定草图 3D 起点和 3D 草图平面方向、绘制 2D 草图、将草图拉伸成 3D 实体形状的完整参数和过程,以 JSON 代码格式储存和表示。这类表示方法与专业建模工程师构建 CAD 模型的过程最为近似,可以直接被导入 AutoDesk、 ProE 等建模软件。构建这些 CAD 模型需要领域专业知识和空间推理能力,也需要较高的学习成本。


图 1. CAD 建模代码示意图


作为空间智能的关键能力之一,空间建模能力对 MLLM 提出了严峻的挑战。尽管 MLLM 在生成 2D 网页布局代码等方面展现出了卓越的性能,这类方法在 3D 建模领域仍然存在问题,比如生成 4 个平行于车底方向车轮的小车。这是因为 MLLM 在推理 3D 草图角度和 3D 空间位置时受限于大语言模型的 1D 推理惯性,难以理解复杂数字背后真正的空间含义。


图 2. 原始多模态大模型 3D 建模效果差原因分析


近期,来自上海交通大学的 i-WiN 研究团队提出了专门用于 CAD 建模的多模态大语言模型 CAD-GPT,结合专门设计的 3D 建模空间定位机制,将 3D 参数映射到 1D 语言信息维度,提高了 MLLM 的空间推理能力,实现了基于单张图片或一句话描述的精准 CAD 建模构造序列生成。该项研究以《CAD-GPT: Synthesising CAD Construction Sequence with Spatial Reasoning-Enhanced Multimodal LLMs》为题,被 AAAI 2025 接收。




方法介绍


3D 建模空间定位机制


我们把关键的 3D、2D 建模参数定义为大语言模型可以理解的建模语言,便于大模型理解和生成。具体来说,设计了 3 个系列的定位 token 来代替 3D 草图平面起点坐标、3D 草图平面角度和 2D 草图曲线坐标的参数。通过将全局空间 3D 坐标、草图平面 3D 旋转角度的特征展开到一维语言特征空间,将它们转换为两类不同的 1D 位置 tokens。此外,2D 草图被离散化并转换为特殊的 2D token。这些 token 被合并到原始 LLM 词表中。同时,纳入了 3 类适配 3 种 token 的自定义可学习的位置嵌入,以弥合语言和空间位置之间的差距。


数据集构建


基于 DeepCAD 数据集,生成了 160k 固定视角渲染的 CAD 模型图像和 18k 相应的自然语言描述数据集,构建专门用于训练多模态大语言模型的 CAD 建模数据集,便于后续其他工作训练大模型生成 CAD 模型建模序列。


训练策略与细节


我们采用 LLaVA - 1.5 7B 版本作为基础模型。训练包括两个阶段:首先在 image2CAD 任务上进行训练,然后在 text2CAD 任务上降低学习率进行微调。此外,因 CAD 建模序列长度较长,我们基于外推法,通过超参调整,扩展 LLM 的窗口长度到 8192。


图 3. CAD-GPT 原理框架图


实验效果展示


图 4. CAD-GPT 生成的各种 CAD 模型展示


图 4 中的模型展示了包含精准语义草图生成能力(如心形和字母 “E”)、带有类别的 CAD 生成能力(如桌子、椅子和钥匙)、空间推理能力(如桌子和相互垂直的圆柱体),以及生成不同尺寸的相同模型的能力(如三个有两个圆孔的不同尺寸连接器)。


基于单张图片的生成效果


将 CAD-GPT 与三种代表性方法进行了比较。第一个是 DeepCAD,它演示了 CAD 建模中的先进生成技术。第二个是 GPT-4,代表了闭源多模态大型模型的前沿。第三个是 Qwen2-VL-Max,这是领先的开源多模态大型模型之一。相比之下,CAD-GPT 产生的输出既准确又美观。


图 5. 基于图片的 CAD 生成效果对比



基于一句话描述生成效果展示


本文选择了两个有代表性的大型语言模型:领先的闭源模型 GPT-4 和最先进的开源模型 LLaMA-3.1(405B)。如图 6 所示,我们的模型始终生成高精度、美观的输出,并且展示出了与文本描述对应的语义信息。


图 6. 基于文本描述的 CAD 生成效果对比



消融实验


图 7 展示了是否添加 3D 建模空间定位机制训练模型的差异。如图所示,添加定位机制后,CAD-GPT 可以精准的推理空间角度、位置变化,以及生成准确的 2D 草图。


图 7. 消融实验效果展示



总结


本文提出 CAD-GPT,一种具有三维建模空间定位机制的多模态大模型,以提高空间推理能力。所提出模型擅长推断草图 3D 方向的变化、3D 空间位置的变化,并准确渲染 2D 草图。利用这些功能,CAD-GPT 在单张图像和文本输入条件下生成精确 CAD 模型方面表现出卓越的性能。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

CAD-GPT 多模态大模型 空间推理 CAD建模 深度学习
相关文章