Kindling the Darkness: A Practical Low-light Image Enhancer论文阅读笔记

  • 这是ACMMM2019的一篇有监督暗图增强的论文,KinD
  • 其网络结构如下图所示:
  • 首先是一个分解网络分解出R和L分量,然后有Restoration-Net和Adjustment-Net分别去对R分量和L分量进一步处理,最终将处理好的R分量和L分量融合回去。这倒是很常规的流程。其中有些novel的细节,一个是分解网络利用得到的R分量来指导L分量的提取。一个是可控的亮度调节模块

分解网络

  • 分解网络的损失函数如下:其中前两个损失很常见,分别是重建损失和暗图亮图具有相同R的约束。第三个损失是L分量的平滑损失,不过用原图的梯度进行归一化,以使得暗图的边缘区域得以保留;第四个损失同样是对L分量的平滑损失,这里则是用一个曲线使得梯度值居中的部分(噪声)平滑掉

  • L i s L D = L^{LD}_{is}= LisLD=

R的重建网络

  • restoration net的损失函数如下,是暗图的R的修复结果和亮图的R的各种距离度量:

I 的调整网络

  • illumination adjustment net的输入除了分解网络估计的 L L L,还有一个全为 α \alpha α的concatenate到 L L L的feature map, α \alpha α表示调节因子,可以用目标 L L L除以输入的 L L L去global average得到。网络的功能是将输入的 L L L调整为target的 L L L。这一方法相比其它retinex的方法直接对 L L L进行gamma校正的手段,具有更好的效果。
  • 这一模块的损失函数如下,这一损失要算两次的,一次是暗图的 L L L作为输入,亮图的 L L L作为target,一次是反过来:

实验结果

方法的可视化效果和NIQE都非常不错,在LOL上的PSNR也很高:


相关推荐
张人玉23 分钟前
VisionPro 定位与卡尺测量学习笔记
笔记·学习·计算机视觉·vsionprp
songyuc27 分钟前
【BiFormer】BiFormer: Vision Transformer with Bi-Level Routing Attention 译读笔记
笔记·transformer
觉醒大王1 小时前
强女思维:着急,是贪欲外显的相。
java·论文阅读·笔记·深度学习·学习·自然语言处理·学习方法
三水不滴1 小时前
计网:输入网址到网页显示
经验分享·笔记·计算机网络
JustDI-CM2 小时前
AI学习笔记-提示词工程
人工智能·笔记·学习
爱写bug的野原新之助2 小时前
加密摘要算法MD5、SHA、HMAC:学习笔记
笔记·学习
张较瘦_3 小时前
[论文阅读] AI | 用机器学习给深度学习库“体检”:大幅提升测试效率的新思路
论文阅读·人工智能·机器学习
小乔的编程内容分享站4 小时前
C语言笔记之函数
c语言·笔记
四谎真好看4 小时前
JavaWeb学习笔记(Day13)
笔记·学习·学习笔记·javaweb
承渊政道5 小时前
Linux系统学习【Linux基础开发工具】
linux·运维·笔记·学习·centos·编辑器