IEEE TGRS 2025 | 突破小波U-Net局限,ASCNet实现更精准的红外去条纹!

红外成像系统在安防监控、海洋监视等领域应用广泛,但其固有的成像机制常导致图像出现列条纹噪声,严重影响图像质量和下游任务(如目标检测)的性能。

现有去条纹方法,特别是基于U型网络的模型,普遍存在两大挑战:1)解码器(升采样器)的先验假设与编码特征的实际噪声分布不匹配,导致跨层级的语义鸿沟 ;2) 未能充分建模条纹噪声的全局列特征,难以将其与背景中的垂直结构精确分离。针对这些问题,本文提出了一种新颖的红外图像去条纹网络------非对称采样校正网络(ASCNet) 。该网络通过创新的非对称采样结构和全局列特征增强模块,实现了对条纹噪声的精准解耦。具体地,ASCNet采用**残差哈尔离散小波变换(RHDWT)作为下采样器,融合了条纹方向先验与数据驱动的语义信息;同时,采用 像素重组(Pixel Shuffle, PS)作为上采样器,避免了固定的先验解码,从而保留了列维度语义的连续性。此外,设计的列非均匀性校正模块(CNCM)**通过建立列、空间和自依赖的长程关系,有效增强了全局列特征。实验证明,ASCNet在合成与真实数据集上均超越了现有技术。

另外,我整理了TPAMI 2025 CV相关论文合集,一共227篇。感兴趣的可以dd!希望能帮到你~

原文、姿.料 这儿~

一、论文基本信息

基本信息

  • 论文标题:ASCNet: Asymmetric Sampling Correction Network for Infrared Image Destriping
  • 作者:Shuai Yuan, Hanlin Qin, Xiang Yan, Shiqi Yang, Shuowen Yang, Naveed Akhtar, Huixin Zhou
  • 作者单位:Xidian University, The University of Melbourne
  • 代码链接https://github.com/xdFai/ASCNet
  • 论文链接https://arxiv.org/pdf/2401.15578v3

摘要精炼

本文旨在解决红外图像去条纹任务中的两大核心问题:现有U型网络中的跨层级语义鸿沟以及对全局列特征的表征不足。为此,论文提出了一种名为非对称采样校正网络(ASCNet) 的深度学习模型。

其核心技术贡献在于一个创新的非对称U型框架,该框架包含三个关键组件:1) 残差哈尔离散小波变换(RHDWT) ,一种新型下采样器,它并行地融合了条纹的方向先验知识和数据驱动的语义交互,以丰富特征表示;2) 像素重组(Pixel Shuffle, PS) ,作为上采样器,避免了带有强先验假设的解码,从而实现了无语义偏差的图像重建;3) 列非均匀性校正模块(CNCM),该模块通过捕捉长程依赖关系中的列、空间和自依赖信息,有效地区分条纹与场景的垂直结构。论文的关键结论是,ASCNet在合成和真实数据集上的去条纹效果,无论是在视觉质量还是定量指标上,均显著优于当前最先进的单图像去条纹方法,并能提升下游红外小目标检测任务的性能。

二、研究背景与相关工作

研究背景

红外(IR)成像系统在军事、安防和工业领域至关重要。然而,由于焦平面阵列(FPA) 探测器单元响应不一致以及其独特的列式信号读出机制,红外图像普遍存在垂直的条纹噪声。这种噪声不仅降低了图像的视觉质量,还严重干扰了后续的计算机视觉任务,如红外小目标检测(IRSTD)。传统的去条纹方法,如基于滤波、统计或优化的模型,过分依赖手工设计的先验,在复杂场景下效果有限。因此,开发一种能够精确区分并去除条纹噪声,同时完好保留图像细节的深度学习模型,是当前该领域面临的核心挑战和迫切需求。

相关工作

现有的去条纹方法主要分为两类。模型驱动方法 利用条纹的结构特性,通过滤波、总变分或稀疏表示等手段进行分离,但这些方法通常难以处理复杂场景和多变的噪声模式。学习驱动方法,特别是基于CNN的模型,展现了更强的特征表达能力。

早期的CNN模型感受野有限,而后续的残差网络、多尺度U型网络和注意力机制虽有改进,但仍存在局限。尤其是在采用离散小波变换(DWT) 作为 U 型网络采样器的方案中,虽然DWT能有效分解条纹的方向特征,但其对应的逆离散小波变换(IDWT) 上采样器带有固定的重构先验,当特征经过卷积层混合后(语义串扰),这种先验会破坏特征的列语义连续性,导致去条纹不彻底或引入伪影。本文方法正是为了解决这一特定问题而提出的。

三、主要贡献与创新

1. 提出非对称采样校正网络(ASCNet)

设计了一种新颖的非对称采样U型网络架构。通过创新的采样器组合与特征校正模块,实现了连续的列语义建模和对全局列关系的全面表示,从而精确地将条纹噪声与背景场景分离开。

2. 引入像素重组(PS)以解决语义鸿沟

针对传统小波U型网络中存在的语义串扰问题,首次将像素重组(Pixel Shuffle)作为上采样器引入红外图像去条纹任务。PS不依赖固定的线性计算,有效弥合了跨层级的列语义鸿沟,实现了无语义偏差的稳定图像恢复。

3. 设计残差哈尔离散小波变换(RHDWT)

提出了一种新型的下采样器RHDWT。它并行地结合了基于模型的哈尔小波变换(HDWT)(提供条纹方向先验)和基于数据的残差卷积(提供跨通道语义交互),从而实现了对条纹特征的更全面描述。

4. 构建列非均匀性校正模块(CNCM)

设计了CNCM模块,通过融合长程的列均匀性、空间相关性和自依赖信息,能够充分捕捉全局上下文中的列特征模式,从而有效增强特征,更好地区分条纹与图像的自然垂直纹理。

四、研究方法与原理

总体框架与核心思想

ASCNet的总体框架是一个经过精心设计的非对称U型编解码网络,其核心思想是在下采样时充分利用条纹的方向先验,在特征增强时聚焦全局列信息,在上采样时保持列语义的连续性

如上图所示,其设计哲学可以概括为"非对称处理"和"分阶段精细校正":

  1. 非对称采样 :编码器(下采样)采用本文提出的RHDWT 模块,它结合了小波变换的方向分解能力和标准卷积的语义捕捉能力。解码器(上采样)则采用Pixel Shuffle,它直接通过像素重排来恢复分辨率,避免了IDWT等方法中固有的、可能与编码特征不匹配的线性重构先验,从而解决了语义鸿沟问题。
  2. 分阶段精细校正 :在网络的编码、解码以及跳跃连接的各个阶段,都嵌入了CNCM模块。该模块专门用于分析和增强特征图中的列特性,确保在不同尺度下都能有效抑制条纹噪声,同时保留有用的图像结构。

关键实现与评估原理

关键实现细节
  1. RHDWT实现 : 该模块由两个并行分支构成。给定输入特征 I i I_i Ii,输出 I R I_R IR 的计算方式为:
    I R = f δ 3 × 3 ( [ Φ ( I i ) ] ) + f s = 2 3 × 3 ( I i ) I_R = f_{\delta}^{3\times3}([\Phi(I_i)]) + f_{s=2}^{3\times3}(I_i) IR=fδ3×3([Φ(Ii)])+fs=23×3(Ii)

    其中, Φ ( ⋅ ) \Phi(\cdot) Φ(⋅) 代表HDWT操作,它将特征分解为四个子带并拼接; f δ 3 × 3 ( ⋅ ) f_{\delta}^{3\times3}(\cdot) fδ3×3(⋅) 是一个3x3卷积层,用于融合子带信息(模型驱动分支); f s = 2 3 × 3 ( ⋅ ) f_{s=2}^{3\times3}(\cdot) fs=23×3(⋅) 是一个步长为2的3x3卷积(残差分支),用于捕捉数据驱动的语义。

  2. CNCM实现 : 该模块的核心是残差列空间自校正(RCSSC) 块。RCSSC包含三个关键分支:

    • 列注意力分支(CAB):对特征图按列进行全局平均池化和最大池化,以捕捉列的整体统计特性,生成列注意力权重,强化列间一致性。
    • 空间注意力分支(SAB):采用标准的通道维度池化,生成空间注意力图,用于增强关键区域的结构特征。
    • 自校正分支(SCB):通过下采样、卷积和上采样操作,建立特征图内部的长程依赖关系,利用低分辨率的全局上下文来校准原始分辨率的特征。
核心评估原理与指标
  • 有参考评估 :对于合成噪声图像,采用业界标准的峰值信噪比(PSNR)结构相似性指数(SSIM) 作为核心评估指标。PSNR衡量像素级别的重建误差,SSIM衡量结构、亮度和对比度的相似性,二者越高表示去条纹效果越好。
  • 无参考评估 :对于真实世界的条纹图像(无干净参考),采用粗糙度指数(ρ)自然图像质量评估器(NIQE)。ρ越低表示图像越平滑(条纹越少),NIQE越低表示图像的统计特性越接近自然图像。

五、实验结果与分析

实验设置

  • 数据集: 训练集包含从ICSRN、INFRARED和CVC09三个公开红外数据集中选取的共270张图像,通过数据增强生成了18万个训练块。测试集包含来自这三个数据集的75张图像。
  • 评估指标: PSNR, SSIM, ρ, NIQE。
  • 对比基线: 包含10种SOTA方法,如GF、UTV(传统方法)和DMRN、TSWEU、Restormer、DSCGAN(深度学习方法)。
  • 关键超参: 模型基础通道数设置为32,使用Adam优化器,初始学习率为0.001,采用余弦退火策略调整,训练100个epoch。

核心实验与结论

【指令】 : 仅选择一项最能体现本文贡献的核心实验进行阐述。

  • 实验目的: 该实验旨在全面、定量地验证ASCNet在多种合成条纹噪声下,相较于其他SOTA方法的优越性。这是评估模型性能和泛化能力最直接的证据。
  • 关键结果 : 实验在ICSRN、INFRARED和CVC09三个测试集上,分别对高斯、均匀、周期性和混合四种噪声类型进行了测试。结果如表I 所示,ASCNet在所有12个测试场景中均取得了最高的PSNR和SSIM值。例如,在INFRARED数据集和均匀噪声下,ASCNet的PSNR达到42.10dB,比次优的DSCGAN高出0.43dB,比著名的Restormer高出3.01dB。在更具挑战性的混合噪声场景下,ASCNet的优势同样显著,表明其强大的噪声抑制和细节保持能力。
  • 作者结论: 作者基于这些压倒性的定量结果得出结论:ASCNet通过其独特的非对称采样架构和列校正机制,能够比现有方法更有效地去除各种类型的条纹噪声。无论噪声分布如何,ASCNet都能稳健地恢复出更接近原始图像的高质量结果,证明了其设计的有效性和先进性。在真实场景的测试中(如上图所示),ASCNet也展现了最佳的视觉效果和最优的NIQE指标,进一步证实了其在实际应用中的泛化能力。

六、论文结论与启示

总结

本文成功识别并解决了红外图像去条纹领域中,基于小波U型网络存在的"语义串扰"和"列特征建模不足"的核心痛点。通过提出一个创新的非对称采样校正网络(ASCNet) ,论文构建了一条清晰的技术路线:利用RHDWT 下采样器融合先验与数据驱动信息进行有效编码,借助Pixel Shuffle 上采样器避免语义偏差以实现精确解码,并贯穿全程使用CNCM 模块来精细化校正全局列特征。

从问题定义、方法创新到实验验证,整个逻辑链条完整且有力。大量的定量和定性实验结果,以及在下游任务上的应用验证,均证明了ASCNet相较于现有最先进方法的卓越性能和实用价值。

展望

论文的结论部分主要聚焦于对本文工作的总结和成果的强调,未明确提出未来的研究方向。但基于其研究内容,可以得到的启示是:

  1. 采样器设计的再思考:非对称采样策略的成功表明,针对特定任务(如去条纹)设计专用的下采样/上采样器,而非直接套用通用结构,是提升模型性能的有效途径。
  2. 长程依赖建模的重要性:CNCM模块的有效性突显了在图像复原任务中,建立跨越整个特征图的全局依赖关系对于区分噪声和信号的重要性。未来可探索更高效的长程依赖建模机制。
相关推荐
几两春秋梦_2 小时前
强化学习原理(二)
人工智能·机器学习
互联网之声2 小时前
兑吧集团受邀参加2025华康会·DaJK大健康“源头创新·链动未来”创新论坛
大数据·人工智能
倔强青铜三2 小时前
苦练Python第54天:比较运算魔术方法全解析,让你的对象“懂大小、能排序”!
人工智能·python·面试
倔强青铜三3 小时前
苦练Python第53天:数值运算魔术方法从入门到精通
人工智能·python·面试
yaso_zhang3 小时前
jetpack6.1 的新 pytorch 2.5.1 版本在哪里?下载中心仅提供 pytorch v2.5.0a0。
人工智能·pytorch·python
金井PRATHAMA3 小时前
语义三角论对人工智能自然语言处理深层语义分析的影响与启示
人工智能·自然语言处理·知识图谱
Canace3 小时前
我们是否需要AI知识库
人工智能·aigc·ai编程
en-route3 小时前
从零开始学神经网络——前馈神经网络
人工智能·深度学习·神经网络
weixin_446260854 小时前
解锁安全新维度:Cybersecurity AI (CAI) 助力提升网络安全效率!
人工智能·安全·web安全