Blind Image Super-Resolution: A Survey and Beyond

TPAMI2023

问题定义

  • 未知图像的退化过程(和之前假定bicubic等一个固定且已知的退化过程相对比),由LR恢复HR;
  • 退化来源(不同的图像采集设备,数字信号处理成可见图像的过程中图像处理算法引入的噪声,在图像储存和传输过程中引入的噪声和胶片腐蚀等)
  • 方法分类:
    -- 基于经典退化模型及其变体的显式建模;
    -- 利用外部数据集的数据分布的隐式建模;

EXPLICIT DEGRADATION MODELLING

with external dataset

wo degradation estimation

  • 由外部的模型来进行degradation estimation;
  • SRMD(super resolution for mutiple degradations)输入LR和degradation map,degradation map是blur kernel被PCA编码为vector然后和噪声 σ \sigma σconcate之后扩展到LR的尺寸,之后UDVD也采用了degradation map;
  • DPSR不需要生成degradation map,而是通过最小化基于 y = ( x ↓ s ⊗ k ) + n y = (x\downarrow_s \otimes k) + n y=(x↓s⊗k)+n的目标函数(分解为两个子问题,但是没看懂咋解的),两个子问题分别是deblur, SR + denoising;
  • USRNet也是map framework,也是两个子问题,但是所基于的退化建模是 y = ( x ⊗ k ) ↓ s + n y = (x \otimes k)\downarrow_s + n y=(x⊗k)↓s+n,两个子问题是SR + deblur, denoising
  • 这类方法主要存在的问题是需要一个准确的模型来进行退化估计,模型的结果比较依赖于准确的估计;

with degradation estimation

  • 将SR和degradation estimation统一到一个框架当中;
  • IKC提出以迭代的方式进行核估计,首先一个预测网络来初始化kernel,之后一个corrector网络在输入(以当前kernel为条件的SR)的情况下输出kernel residual,之后修正后的kernel重复这个修正的过程;
  • DAN提出对IKC的改进,叫corrector和SR网络统一训练,而不是像IKC一样分开单独训练;
  • 上面的两种方法可以从domain adaptation的角度进行解释;
  • 还有一些方法试图解决迭代耗时的问题;
  • DRL-DASR使用无监督学习的方法来训练degradation encoder,获得的degradation representation供SR使用;
  • KOALAnet使用dynamic kernel strategy

complex degradation modeling

  • 经典的退化模型不能很好的涵盖现实的情况,一些工作采用更大的degradation空间;
  • BSRGAN还是使用经典的退化算子,但是顺序是打乱的;
  • Real-ESRGAN使用高阶的退化模型,也就是传统的退化模型重复多次,文章中阶数为2;

with internal statistics

  • 基于的点是patches of a single image tend to recur within and across different scales of this image;
  • 之前的方法:提出MAP framework来估计SR blur kernel,最佳的kernel k是最大化不同尺度的recuring patches的相似度的那个;
  • gan-based: KernelGAN将相似度的最大化建模成数据分布;
  • flow-based: FKP在latent space进行kernel的求解,而不是pixel space,更加efficiency;
  • ZSSR和DGDML-SR自监督的进行训练;

IMPLICIT DEGRADATION MODELLING

  • 假如有成对的HR-LR图片对数据集,现在的监督学习可以得到比较好的效果,但是有更加挑战的情况,有两个数据集,HR和不成对的LR,问题变为domain adaptation;
  • CinCGAN包含两个cycle,LR-Cycle首先将LR转换到Bicubic LR domain(Clean LR),bicubic LR domain的数据认为是从HR下采样得到的,认为是没有噪声的,两个cycle使用的都是cycle gan,此时训练只能靠discriminator,不能靠成对数据的reconstruction loss,训练不稳定;
  • b中的训练策略是将L2H和H2L统一到一个框架当中,其中L2H使用的是成对的数据,H2L使用的是不成对的数据;
  • 上面的方法生成的LR和真实的LR可能会存在较大的差异,DASR将生成的LR和真实的LR都加入到SR模型的训练当中,使用domain distance weighted supervision来对生成的LR赋予不同的权重,权重基于LR discriminator;

dataset

相关推荐
梦醒过后说珍重几秒前
Python 工程化实战:如何将复杂的EndoMamba感知损失封装为“即插即用”的独立模块包
python·深度学习
CoovallyAIHub几秒前
编码智能体做 CV 任务,实际能力到哪一步了?——五项视觉任务实测解读
深度学习·算法·计算机视觉
梦醒过后说珍重6 分钟前
PyTorch 工程实践:如何优雅地将 ViT 大模型封装为即插即用的感知损失(Perceptual Loss)
python·深度学习
霖大侠8 分钟前
Towards Generalizable Scene Change Detection
人工智能·深度学习·机器学习
2601_9507607912 分钟前
UA-MHC H-2D(b)/EGSRNQDWL gp100四聚体-APC标记在抗原特异性T细胞检测中的应用
人工智能·深度学习·机器学习
deephub18 分钟前
知识引导上下文优化(KgCoOp):一种解决灾难性遗忘的 Prompt Tuning 机制
人工智能·深度学习·机器学习·微调·prompt
动物园猫41 分钟前
城市道路设施及道路安全隐患数据集分享(适用于YOLO系列深度学习分类检测任务)
深度学习·yolo·分类
龙文浩_1 小时前
【无标题】AI深层神经网络(多层全连接)+ ReLU 激活 的完整处理流程
人工智能·python·深度学习·神经网络·机器学习
zzh940771 小时前
大模型压缩与蒸馏技术拆解:GPT-4o与Gemini官网如何实现模型瘦身?
人工智能·深度学习·计算机视觉
RuiBo_Qiu1 小时前
LLM的神经网络之谜: 神经网络是简单的线性计算加非线形激活的堆叠
人工智能·深度学习·神经网络