让你更懂AI的 2025-07-16 20:34 北京
让微小缺陷无所遁形
本文第一作者为东北大学博士生张哲,导师为中国工程院院士柴天佑教授。该工作由东北大学、Meta 和英国萨里大学合作完成,通讯作者为吴高昌副教授(东北大学)与朱霞天副教授(萨里大学)。
论文标题:
CostFilter-AD: Enhancing Anomaly Detection through Matching Cost Filtering
GitHub地址:
https://github.com/ZHE-SAPI/CostFilter-AD
Slide 链接:
https://github.com/ZHE-SAPI/CostFilter-AD/blob/main/Materials/CostFilter-AD_slide_ICML2025.pdf
ICML 主页:
https://icml.cc/virtual/2025/poster/46359
你是否想过,工厂是如何在很多种不同产品中,精准识别出浅浅的划痕、缺失的元件,甚至是几乎察觉不到的微小缺陷?
这远比“图像识别”要复杂。当前许多 AI 系统依赖于将待测图像与正常样本进行匹配来判断异常,但这一过程极易受到噪声干扰,尤其在处理模糊、低对比或结构细微的缺陷时,常常出现误报与漏检。
在 ICML 2025 接收论文中,来自东北大学、Meta 和英国萨里大学的研究者联合提出 CostFilter-AD,首次将“匹配代价体滤波”系统性引入无监督异常检测(UAD)。
与其说关注“学得更好”,CostFilter-AD 更关注“比得更准”。它构建一个异常代价体来全局表征图像与正常模板之间的匹配成本,并通过滤波机制清除噪声、增强边界,使得微小异常也难以遁形。
更重要的是,CostFilter-AD 无需真实缺陷样本参与训练,仅依赖正常样本就能精准检测各类未知异常,具备强泛化能力与部署适应性。作为一个通用插件式模块,它能无缝集成到现有检测方法中,有效提升检测精度与边界清晰度,为工业质检带来更智能、更可靠的解决方案。
任务背景与挑战
在工业质检、安防监控、医疗影像等场景中,无监督异常检测(Unsupervised Anomaly Detection, UAD)日益成为核心技术之一。
由于现实世界中异常样本稀少、类型多样、标注昂贵,UAD 凭借“仅用正常样本训练”的能力,在工业界获得了广泛关注。
但一个悄然被忽视的难题也在同步放大:当前最先进的检测模型,无论是基于图像重建的 Diffusion/UNet/ViT,还是基于特征对比的 DINO/ViT,在生成异常图(anomaly map)时几乎都隐含了一个过程:匹配(matching)。
而这个看似“简单”的操作,常常掩盖了检测失败的根源。匹配过程中的噪声,可能是真正导致误检与漏检的幕后黑手。
我们的方法突破口在哪里?
动机分析:不是模型不够强,而是“匹配得不够准”。
目前主流 UAD 方法大致分为两类:
1. 重建式方法:将输入图像还原成“正常版本”,异常区域将表现为高残差;
2. 嵌入式方法:将输入图像投影到特征空间,与正常样本进行相似性匹配。
两类方法虽然形式不同,但在最后生成 anomaly heat map 时,本质都要完成一种“输入 vs 正常样本”的匹配。
问题在于:现实中的匹配从不完美。
1. 重建式方法中,Diffusion 等模型可能会错误保留异常结构(e.g. short cut issue),形成“伪正常”图像;
2. 嵌入式方法中,基于预训练特征(如 ViT、DINO)提取的嵌入往往存在尺度、视角、纹理的偏差,使得相似性计算被高维噪声干扰。
然而,这些 “匹配噪声” 长期被忽视,异常检测系统只能被动接受“残差”或“相似性”分数,而非从源头优化其可靠性。
CostFilter-AD:首提“匹配代价体滤波”范式
为解决这一核心难题,我们提出一种全新视角:
异常检测 = 匹配代价体构建 + 滤波优化 + anomaly map 生成,具体步骤为:
1. 构建完整的匹配代价体(Cost Volume),显式表征“输入图 vs 正常样本”之间的多维匹配关系;
2. 引入一个基于双流注意力(Dual Stream Attention)的 3D U-Net 网络,对代价体进行细粒度滤波;
3. 输出结构清晰的 anomaly heat map,作为最终异常检测分割图。
方法亮点:
1. 机制创新:首次引入“匹配代价体 + 滤波”到 UAD 领域;
2. 即插即用:不需改动原模型架构,适配所有主流检测器;
3. 性能显著提升:Image-AUROC & Pixel-AUROC 等七种异常检测指标全面增长;
4. 泛化增强:处理模糊边界、小尺寸异常亦很有效。
方法细节拆解:不是再造大模型,而是细化匹配过程
CostFilter-AD 包括以下三个关键阶段:
1. 构建匹配代价体(Matching Cost Volume)
我们不再仅仅计算一对图像之间的单一匹配值,而是:
(a)对输入图像与多个正常模板图像进行全局像素级匹配;
(b)在每个特征层上计算余弦相似度,得到三维代价体(空间维度 × 匹配维度 × 通道);
(c)转换为 anomaly cost(1 − similarity),形成全局异常热图。
与常见的最近邻匹配 KNN 不同,CostFilter-AD 捕获了多模板、多尺度、多位置之间的结构性匹配模式。
2. 匹配代价体滤波(Cost Volume Filtering)
匹配代价体矩阵虽然得到,但其中依然混有大量“误判”:正常边缘误认为异常(或相反)、异常细节被模糊覆盖等。为此我们引入一个具备 Dual-Stream Attention 机制的 3D U-Net 网络,对代价体进行去噪与增强:
(a)通道引导(MG):使用初始 anomaly 热图引导模型关注更可能为异常的通道区域;
(b)空间引导(SG):使用输入图特征作为空间注意力,引导模型保留边界结构;
(c)残差引导机制(RCSA):融合上述注意力流,逐层优化代价体表示。
经过滤波后,输出 anomaly map 的分布更集中、边界更清晰。
3. 类别自适应损失与泛化机制
为适配多类工业检测任务,我们设计了 Class-Aware Adapter:
(a)利用 soft logit 调整 focal loss 的聚焦因子,自适应平衡易错类别;
(b)优化结构损失(SSIM + soft IoU),增强检测的结构一致性。
这让 CostFilter-AD 在单模型处理多类 anomaly 时保持高效与准确。
实验验证:四大数据集、五个最新 baseline、七种异常检测指标全面刷新
CostFilter-AD 被集成至五大主流 UAD 框架中:
GLAD(Reconstruction-based Diffusion, ECCV’24);
HVQ-Trans(Reconstruction-based Transformer, NeurIPS’23);
AnomalDino(Embedding-based Dinov2, WACV’25);
UniAD(Embedding-based Transformer, NeurIPS’22);
Dinomaly(Reconstruction-based Transformer, CVPR’25).
我们在 MVTec-AD、VisA、MPDD、BTAD 四个工业数据集上进行像素级和图像级别异常检测。
(a)定量结果:
更多测试指标请参考论文附录。
(b)可视化结果:边界更清晰,baseline 漏检区域被成功检测;
(c)内存&推理:平均仅提升显存和延时较小,有助于实际可部署
即插即用,轻量部署,工业友好
CostFilter-AD 是一款即插即用(plug-and-play)的异常检测增强模块:
(a)支持多种输入模板:重建图、特征模板、混合中间表示;
(b)兼容主流模型:ViT-B/8、EfficientNet-B4、DINO、Diffusion 全部适配;
(c)部署无压力:可部署于工业边缘设备、服务器或 API 服务端。
方法总结:从匹配修正出发,重塑异常检测核心范式
CostFilter-AD 的核心理念在于重塑 anomaly map/score 的生成方式:
异常检测的难点,不仅在于是否能还原/嵌入得好,更在于是否“比”得准确。
通过构建代价体并对其进行滤波优化,我们重新定义了异常分数的构成逻辑:不是谁更像,而是“匹配结果如何更可信”。
这一思路不仅适用于图像异常检测,或许还可迁移至:
(a)时序异常检测(e.g. 预测轨迹 vs 实际轨迹的匹配代价);
(b)视觉异常追踪(匹配掩码 vs 模板结构);
(c)RL 状态匹配估计(当前状态 vs 高奖励状态的策略匹配)等场景。
欢迎关注团队主页、代码仓库,或联系作者学术交流!
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
·