我爱计算机视觉 前天 00:37
CVPR25 | CV 微调卷出天际,Mona:我小,我强,我省资源
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Mona(Multi-cognitive Visual Adapter)是一种新型视觉适配器微调方法,旨在打破传统全参数微调在视觉识别任务中的性能瓶颈。它通过引入多认知视觉滤波器和优化输入分布,仅调整 5% 的骨干网络参数,就能在实例分割、目标检测、旋转目标检测等多个经典视觉任务中超越全参数微调的效果。Mona显著降低了适配和存储成本,为视觉模型的高效微调提供了新的思路,尤其是在参数量较大的模型和少样本情况下,能有效避免过拟合问题,提升LVM、多模态大模型对视觉特征的理解和重构。

💡Mona通过引入多认知视觉滤波器,专门针对视觉任务设计,能够更好地处理二维视觉特征,通过深度可分离卷积和多尺度卷积核(3×3、5×5、7×7)来增强适配器对视觉信号的处理能力, 提升模型对视觉信息的理解能力。

⚙️Mona在适配器的前端加入了分布适配层(Scaled LayerNorm),用于调整输入特征的分布。这种设计能够优化从固定层传递过来的特征分布,使其更适合适配器的处理,从而提高微调效率。

🚀实验结果表明,Mona在COCO、ADE20K、Pascal VOC等多个数据集上,以及实例分割、语义分割、目标检测等多个视觉任务中,均超越了全参数微调的效果,同时收敛速度更快。

🧩Mona包含降维、多认知视觉滤波器、激活函数和升维等模块,并在适配器内部加入了跳跃连接(Skip-Connections),以增强模型的适应能力。

2025-04-25 20:40 江苏

打破全参数微调的性能枷锁:即插即用的提点神器Mona引领视觉微调新突破




关注公众号,发现CV技术之美




本篇介绍 CVPR2025 论文5%>100%: Breaking Performance Shackles of Full Fine-Tuning on Visual Recognition Tasks,打破全参数微调的性能枷锁:即插即用的提点神器Mona引领视觉微调新突破。

Mona(Multi-cognitive Visual Adapter)是一种新型视觉适配器微调方法,旨在打破传统全参数微调(full fine-tuning)在视觉识别任务中的性能瓶颈。

Mona 方法通过引入多认知视觉滤波器和优化输入分布,仅调整 5% 的骨干网络参数,就能在实例分割、目标检测、旋转目标检测等多个经典视觉任务中超越全参数微调的效果,显著降低了适配和存储成本,为视觉模型的高效微调提供了新的思路。


论文亮点

随着现代深度学习的发展,训练数据和模型规模的增加成为模型性能的重要增长点,但随之而来的是模型的垂直应用和微调成本和难度的提升。传统全量微调需要更新模型所有参数(如GPT-3的1750亿参数 ),计算成本极高。即使以早期的BERT为例,单卡训练100万数据也需5-7小时,对硬件资源和时间的要求限制了研究复现和实际应用。 同时,随着模型参数从亿级迈向万亿级,直接微调不仅成本高昂,还可能因过拟合导致性能下降。此外,多任务场景下需为每个任务保存完整模型副本,存储成本剧增加。

参数高效微调(Parameter Efficient Fine-Tuning,PEFT)通过保持预训练模型参数冻结,仅调整少量参数就可实现大模型在垂直应用领域的高效适配。但目前大多数 PEFT 方法,尤其是视觉领域的 PEFT 方法的性能相较于全量微调而言还存在劣势。Mona 通过更适合视觉信号处理的设计以及对预训练特征分布的动态优化在小于 5% 的参数成本下首次突破了全量微调的性能枷锁,为视觉微调提供了新的解决方案。

本文的核心在于强调:

    PEFT对于视觉模型性能上限的提升(尤其是参数量较大的模型);
    视觉模型在全微调(尤其是少样本情况)会存在严重的过拟合问题;
    1LVM+nAdapter模式在实际业务中潜在的性能和效率优势。

对于具体业务来说,有些用到LVM或者多模态大模型(如OCR等任务)的任务会对视觉编码器部分进行固定或仅微调linear层来适应下游数据。Mona的存在理论上可以进一步提升LVM、多模态大模型对视觉特征的理解和重构,尤其是对于一些少样本post-training问题。


方法

Mona 包含降维、多认知视觉滤波器、激活函数和升维等模块,并在适配器内部加入了跳跃连接(Skip-Connections),以增强模型的适应能力。这种结构设计使得 Mona 能够在保持高效的同时,显著提升视觉任务的性能。

多认知视觉滤波器

Mona 方法的核心在于引入了多认知视觉滤波器,这些滤波器通过深度可分离卷积(Depth-Wise Convolution)和多尺度卷积核(3×3、5×5、7×7)来增强适配器对视觉信号的处理能力。与传统的线性适配器不同,Mona 专门针对视觉任务设计,能够更好地处理二维视觉特征,通过多尺度特征融合提升模型对视觉信息的理解能力。

输入优化

Mona 在适配器的前端加入了分布适配层(Scaled LayerNorm),用于调整输入特征的分布。这种设计能够优化从固定层传递过来的特征分布,使其更适合适配器的处理,从而提高微调效率。


实验结果

实验设置

论文在多个代表性视觉任务上进行了实验,包括:

    实例分割(COCO)
    语义分割(ADE20K)
    目标检测(Pascal VOC)
    旋转目标检测(DOTA/STAR)
    图像分类(Flowers102、Oxford-IIIT Pet、VOC2007)

实验使用了 SwinTransformer 系列作为骨干网络,并基于 ImageNet-22k 数据集进行预训练。

性能对比

descript
    在 COCO 数据集上,Mona 方法相比全参数微调提升了 1% 的 mAP,仅调整了不到 5% 的参数。
    在 ADE20K 数据集上,Mona 提升了 0.18% 的 mIoU,表现出色。
    在 Pascal VOC 数据集上,Mona 提升了 3.6% 的 APbox,显示出显著的性能提升。
    在旋转目标检测任务(DOTA/STAR)中,Mona 在多个框架下均优于其他方法。
    在图像分类任务上,Mona 也有不俗的性能。

收敛性分析

descript

在所有方法中, Mona收敛速度更快,并且明显超过了全微调。

即插即用模块

import torch.nn as nn
import torch.nn.functional as F

# ------------------------------ Mona 模块 ------------------------------

INNER_DIM = 64

class MonaOp(nn.Module):
    def __init__(self, in_features):
        super().__init__()
        self.conv1 = nn.Conv2d(in_features, in_features, kernel_size=3, padding=3 // 2, groups=in_features)
        self.conv2 = nn.Conv2d(in_features, in_features, kernel_size=5, padding=5 // 2, groups=in_features)
        self.conv3 = nn.Conv2d(in_features, in_features, kernel_size=7, padding=7 // 2, groups=in_features)

        self.projector = nn.Conv2d(in_features, in_features, kernel_size=1, )

    def forward(self, x):
        identity = x
        conv1_x = self.conv1(x)
        conv2_x = self.conv2(x)
        conv3_x = self.conv3(x)

        x = (conv1_x + conv2_x + conv3_x) / 3.0 + identity

        identity = x

        x = self.projector(x)

        return identity + x

class Mona(BaseModule):
    def __init__(self,
                 in_dim,
                 factor=4):
        super().__init__()

        self.project1 = nn.Linear(in_dim, INNER_DIM)
        self.nonlinear = F.gelu

结论

Mona 方法通过多认知视觉滤波器和输入优化,显著提升了视觉任务的微调性能,同时大幅减少了参数调整量。这一方法不仅在多个视觉任务中超越了传统全参数微调,还为未来视觉模型的高效微调提供了新的方向。预印版期间,Mona 已被复旦、中科大、南大、武大等多家单位的工作视为SOTA方法运用在医学、遥感等领域。Mona 的开源代码将进一步推动这一领域的研究和应用。

引用格式
@misc{yin20245100breakingperformanceshackles,<br>
title={5%>100%: Breaking Performance Shackles of Full Fine-Tuning on Visual Recognition Tasks},<br>
author={Dongshuo Yin and Leiyi Hu and Bin Li and Youqun Zhang and Xue Yang},<br>
year={2024},<br>
eprint={2408.08345},<br>
archivePrefix={arXiv},<br>
primaryClass={cs.CV},<br>
url={https://arxiv.org/abs/2408.08345},<br>
}

最新 AI 进展报道
请联系:amos@52cv.net

END




欢迎加入「计算机视觉交流群👇备注:CV




阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Mona 视觉微调 参数高效微调 多认知视觉滤波器
相关文章