# Kernel Prediction Networks DENOISE

文章目录

  • [Kernel Prediction Networks DENOISE](#Kernel Prediction Networks DENOISE)
    • [1.【论文复现】Kernel Prediction Networks](#1.【论文复现】Kernel Prediction Networks)
    • [2. Burst Denoising with Kernel Prediction Networks cvpr2018](#2. Burst Denoising with Kernel Prediction Networks cvpr2018)
    • [3. MULTI-KERNEL PREDICTION NETWORKS FOR DENOISING OF BURST IMAGES](#3. MULTI-KERNEL PREDICTION NETWORKS FOR DENOISING OF BURST IMAGES)
    • [4. Weighted Multi-Kernel Prediction Network for Burst Image Super-Resolution](#4. Weighted Multi-Kernel Prediction Network for Burst Image Super-Resolution)

Kernel Prediction Networks DENOISE

1.【论文复现】Kernel Prediction Networks

https://zhuanlan.zhihu.com/p/73349632

2. Burst Denoising with Kernel Prediction Networks cvpr2018

https://openaccess.thecvf.com/content_cvpr_2018/papers/Mildenhall_Burst_Denoising_With_CVPR_2018_paper.pdf

效果还是很好的

博客:https://blog.csdn.net/zbwgycm/article/details/80987721

代码:https://github.com/google/burst-denoising

3. MULTI-KERNEL PREDICTION NETWORKS FOR DENOISING OF BURST IMAGES

和 2 挺接近:

主要是预测不同 kernel size的kernel.

另外为了减少计算量:

  1. 预测 n x n的kennel 改为 2 x n, 2维变1维 吗, 核分离技术
  2. inference的时候 先将各种kernel合并为一个

其他和2 基本一致:

使用 L2 灰度损失 和 L1梯度损失, 训练的时候采用退火训练方法。

效果比2好:

第1行是本文,第二行是 2 文, 其他是kernel size的大小,但是是分离的1d kernel, 所以计算成本比2d kernel小。

4. Weighted Multi-Kernel Prediction Network for Burst Image Super-Resolution

相比3 主要是引入 各个kernel的weight

比如 kernel size为1 ,3, 5.。。 的kernel 的weight, 3中是求平均,这里会预测weight, 然后加权。

code:https://github.com/chowy333/WMKPN-Burst_Super-Resolution

相关推荐
_小雨林5 小时前
(UPDATING)LLM微调之实战,SFTTrainer官方案例、LoRA/QloRA微调案例、Unsloth、分布式训练、LLaMA Factory
人工智能·深度学习
xiaotao1316 小时前
03-深度学习基础:循环神经网络(RNN)
人工智能·深度学习·机器学习
今日说"法"7 小时前
数值计算与浮点误差:深度学习中梯度崩溃的数学根源与归一化对策
人工智能·深度学习
LaughingZhu8 小时前
Product Hunt 每日热榜 | 2026-04-21
人工智能·经验分享·深度学习·神经网络·产品运营
keineahnung23459 小时前
PyTorch 張量尺寸為 1 時,步長為何不具語意?
人工智能·pytorch·python·深度学习
思绪无限9 小时前
YOLOv5至YOLOv12升级:日常场景下的人脸检测系统的设计与实现(完整代码+界面+数据集项目)
深度学习·yolo·目标检测·日常场景下的人脸检测·yolov12·yolo全家桶
一休哥※9 小时前
YOLOv11改进系列 | 引入EMO ICCV2023的C3k2_iRMB模块,轻量注意力残差混合块增强C3k2,多尺度分割更稳更准
深度学习·yolo·计算机视觉
小超同学你好10 小时前
Transformer 27. Vision Transformer(ViT):把图像当作「词序列」的编码器
人工智能·深度学习·transformer
赋创小助手11 小时前
RTX PRO 6000 vs RTX 5090:从一组230B模型测试数据谈企业级推理选型
服务器·人工智能·科技·深度学习·自然语言处理
不才小强11 小时前
深度学习模型部署实战指南
人工智能·深度学习