index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
北京大学的研究团队提出Vision Graph Prompting (VGP) 方法,旨在提升图神经网络 (GNN) 在视觉建模中的迁移效率。该方法通过语义低秩分解,增强了图结构图像模型的参数高效迁移能力,使得Vision GNN (ViG) 在多种下游任务中实现接近全量微调的性能,同时显著减少了计算和存储负担。该研究已被ICML 2025接收,开源了论文和代码,为视觉GNN模型的应用拓展提供了新的思路。
💡背景:ViG模型通过图结构捕捉图像语义,但全量微调带来计算和存储挑战。现有视觉提示方法难以有效建模图结构语义拓扑关系。
💡方法:VGP 是一种专为ViG设计的语义感知提示机制,基于语义低秩分解。通过SeLo-Graph Prompt、SeLo-Edge Prompt和SeLo-Node Prompt,从全局、边和节点层面增强语义表达。
💡实验结果:VGP 在多个视觉下游任务中表现出色,精度媲美甚至超越全量微调,同时大幅减少参数量,实现了结构感知迁移。
💡应用价值:VGP为ViG模型的下游适配提供了新范式,适用于高精度视觉理解、边缘设备部署和多任务快速切换等场景。
💡未来展望:研究团队计划将VGP扩展到更复杂的图结构建模场景,如时空图建模、跨模态图-语言联合建模,探索语义低秩分解的更多潜力。
原创 让你更懂AI的 2025-06-09 13:34 北京
高效迁移的终极答案?

近日,北京大学在图神经网络(GNN)视觉建模方向提出全新方法 VGP(Vision Graph Prompting),通过语义低秩分解(Semantic Low-Rank Decomposition)有效增强图结构图像模型的参数高效迁移能力,赋能 Vision GNN(ViG)在多种下游任务中实现媲美全量微调的性能。
该研究已被人工智能顶会 ICML 2025 正式接收,相关论文与代码已全部开源。论文第一作者为北京大学博士生艾子翔,通讯作者为北京大学王选计算机研究所研究员、助理教授周嘉欢。
论文标题:Vision Graph Prompting via Semantic Low-Rank Decomposition论文链接:https://arxiv.org/abs/2505.04121代码链接:https://github.com/zhoujiahuan1991/ICML2025-VGP接收会议:ICML 2025(CCF A 类)作者单位:北京大学王选计算机研究所
背景:图结构视觉建模的潜力与挑战近年来,Vision GNN(ViG)模型通过将图像建模为图结构,在图神经网络中有效捕捉图像中非规则的语义分布,突破了传统 CNN 和 Transformer 模型中固定网格和序列结构的限制,成为视觉建模新范式。
然而,ViG的大规模模型在迁移到具体下游任务时,依赖传统的全量微调方式,造成巨大的计算与存储负担,难以适用于边缘设备或多任务部署场景。同时,现有视觉提示(Visual Prompting)方法大多针对Transformer设计,无法有效建模图结构中的语义拓扑关系,限制了其在图像图模型中的应用效果。
方法简介:语义低秩提示,唤醒ViG语义潜能为解决上述难题,研究团队提出 Vision Graph Prompting(VGP),一种专为 ViG 设计的语义感知提示机制。该设计思想源于对图视觉模型中语义信息分布的关键发现:
在视觉图结构中,尽管语义相关的节点具有不同的局部外观细节,它们在主成分分析(PCA)中却表现出高度一致的低秩结构,这表明图结构中主要的语义信息集中于隐式特征空间的低秩成分。
基于这一观察,VGP 通过语义低秩分解,将图中的重要语义模式以低秩形式建模,并通过三种提示组件注入到图结构中:
SeLo-Graph Prompt(语义低秩图提示):添加可训练的虚拟节点,并与原始图动态连接,引导模型捕捉全局语义依赖。SeLo-Edge Prompt(语义低秩边提示):在边级别进行低秩语义增强,突出重要连接,滤除无关局部噪声。SeLo-Node Prompt(语义低秩点提示):对节点特征进行低秩建模,强化细粒度语义表达,保留局部关键细节。
实验结果:高效迁移,精度媲美全量微调在多个视觉下游任务数据集上,VGP 展现出超越现有视觉提示方法的性能,尤其在以下方面表现突出:
精度媲美全量微调,甚至在部分任务上超越;参数量大幅减少,仅需极小比例的可训练参数;有效利用 ViG 的语义拓扑结构,实现结构感知迁移。此外,本研究方法在传统的化学分子和生物信息图数据任务上,同样能够超越全参微调,显示出扩展到 AI4Science 领域的潜力。
应用价值:拓展图神经视觉模型的边界VGP 为 Vision GNN 模型的下游适配提供了全新范式,具备广泛应用潜力:
高精度视觉理解:医疗图像分析、卫星遥感解读等需要全局语义建模场景;边缘设备部署:自动驾驶、智能手机等对模型体积敏感场景;多任务快速切换:在大模型基础上高效适配不同视觉任务。
未来展望研究团队表示,将进一步扩展 VGP 至更复杂的图结构建模场景,如时空图建模、跨模态图-语言联合建模等,持续探索语义低秩分解在大模型高效迁移中的潜力。
更多阅读
#投 稿 通 道# 让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 • 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:• 投稿邮箱:hr@paperweekly.site • 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了进入知乎首页搜索「PaperWeekly」点击「关注」订阅我们的专栏吧
·



















阅读原文
跳转微信打开