PaperWeekly 10小时前
ICML 2025 | 抛弃全量微调!北大提出VGP范式,语义低秩分解解锁ViG高效迁移
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

北京大学的研究团队提出Vision Graph Prompting (VGP) 方法,旨在提升图神经网络 (GNN) 在视觉建模中的迁移效率。该方法通过语义低秩分解,增强了图结构图像模型的参数高效迁移能力,使得Vision GNN (ViG) 在多种下游任务中实现接近全量微调的性能,同时显著减少了计算和存储负担。该研究已被ICML 2025接收,开源了论文和代码,为视觉GNN模型的应用拓展提供了新的思路。

💡背景:ViG模型通过图结构捕捉图像语义,但全量微调带来计算和存储挑战。现有视觉提示方法难以有效建模图结构语义拓扑关系。

💡方法:VGP 是一种专为ViG设计的语义感知提示机制,基于语义低秩分解。通过SeLo-Graph Prompt、SeLo-Edge Prompt和SeLo-Node Prompt,从全局、边和节点层面增强语义表达。

💡实验结果:VGP 在多个视觉下游任务中表现出色,精度媲美甚至超越全量微调,同时大幅减少参数量,实现了结构感知迁移。

💡应用价值:VGP为ViG模型的下游适配提供了新范式,适用于高精度视觉理解、边缘设备部署和多任务快速切换等场景。

💡未来展望:研究团队计划将VGP扩展到更复杂的图结构建模场景,如时空图建模、跨模态图-语言联合建模,探索语义低秩分解的更多潜力。

原创 让你更懂AI的 2025-06-09 13:34 北京

高效迁移的终极答案?

近日,北京大学在图神经网络(GNN)视觉建模方向提出全新方法 VGP(Vision Graph Prompting),通过语义低秩分解(Semantic Low-Rank Decomposition)有效增强图结构图像模型的参数高效迁移能力,赋能 Vision GNN(ViG)在多种下游任务中实现媲美全量微调的性能。


该研究已被人工智能顶会 ICML 2025 正式接收,相关论文与代码已全部开源。论文第一作者为北京大学博士生艾子翔,通讯作者为北京大学王选计算机研究所研究员、助理教授周嘉欢。

论文标题:

Vision Graph Prompting via Semantic Low-Rank Decomposition

论文链接:

https://arxiv.org/abs/2505.04121

代码链接:

https://github.com/zhoujiahuan1991/ICML2025-VGP

接收会议:

ICML 2025(CCF A 类)

作者单位:

北京大学王选计算机研究所



背景:图结构视觉建模的潜力与挑战

近年来,Vision GNN(ViG)模型通过将图像建模为图结构,在图神经网络中有效捕捉图像中非规则的语义分布,突破了传统 CNN 和 Transformer 模型中固定网格和序列结构的限制,成为视觉建模新范式。


然而,ViG的大规模模型在迁移到具体下游任务时,依赖传统的全量微调方式,造成巨大的计算与存储负担,难以适用于边缘设备或多任务部署场景。同时,现有视觉提示(Visual Prompting)方法大多针对Transformer设计,无法有效建模图结构中的语义拓扑关系,限制了其在图像图模型中的应用效果。


方法简介:语义低秩提示,唤醒ViG语义潜能

为解决上述难题,研究团队提出 Vision Graph Prompting(VGP),一种专为 ViG 设计的语义感知提示机制。该设计思想源于对图视觉模型中语义信息分布的关键发现:

在视觉图结构中,尽管语义相关的节点具有不同的局部外观细节,它们在主成分分析(PCA)中却表现出高度一致的低秩结构,这表明图结构中主要的语义信息集中于隐式特征空间的低秩成分。

基于这一观察,VGP 通过语义低秩分解,将图中的重要语义模式以低秩形式建模,并通过三种提示组件注入到图结构中:


SeLo-Graph Prompt(语义低秩图提示):添加可训练的虚拟节点,并与原始图动态连接,引导模型捕捉全局语义依赖。

SeLo-Edge Prompt(语义低秩边提示):在边级别进行低秩语义增强,突出重要连接,滤除无关局部噪声。

SeLo-Node Prompt(语义低秩点提示):对节点特征进行低秩建模,强化细粒度语义表达,保留局部关键细节。



实验结果:高效迁移,精度媲美全量微调

在多个视觉下游任务数据集上,VGP 展现出超越现有视觉提示方法的性能,尤其在以下方面表现突出:


精度媲美全量微调,甚至在部分任务上超越;

参数量大幅减少,仅需极小比例的可训练参数;

有效利用 ViG 的语义拓扑结构,实现结构感知迁移。

此外,本研究方法在传统的化学分子和生物信息图数据任务上,同样能够超越全参微调,显示出扩展到 AI4Science 领域的潜力。



应用价值:拓展图神经视觉模型的边界

VGP 为 Vision GNN 模型的下游适配提供了全新范式,具备广泛应用潜力:


高精度视觉理解:医疗图像分析、卫星遥感解读等需要全局语义建模场景;

边缘设备部署:自动驾驶、智能手机等对模型体积敏感场景;

多任务快速切换:在大模型基础上高效适配不同视觉任务。



未来展望

研究团队表示,将进一步扩展 VGP 至更复杂的图结构建模场景,如时空图建模、跨模态图-语言联合建模等,持续探索语义低秩分解在大模型高效迁移中的潜力。



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

VGP 图神经网络 视觉建模 迁移学习 ICML 2025
相关文章