ECCV 2024 | 加速图像超分辨率网络的像素级分类

题目:Accelerating Image Super-Resolution Networks with Pixel-Level Classification
加速图像超分辨率网络的像素级分类
作者:Jinho Jeong, Jinwoo Kim, Younghyun Jo, Seon Joo Kim
论文链接:https://arxiv.org/abs/2407.21448
源码链接:https://github.com/3587jjh/PCSR

论文创新点

  1. 像素级分类器(Pixel-level Classifier) :作者提出了一种名为单图像超分辨率的像素级分类器(PCSR)的新方法,这种方法能够在像素级别动态分配计算资源,与传统的基于块的方法相比,能够更精细地处理图像中不同区域的恢复难度。

  2. 自适应资源分配 :PCSR模型包括一个主干网络、一个像素级分类器和一组不同容量的像素级上采样器。这种方法允许在推理过程中在性能和计算成本之间进行平衡,而无需重新训练

  3. 多尺度超分辨率(Multi-scale Super-Resolution):利用LIIF作为上采样器,PCSR模型能够适应不同的尺度因子,这意味着只需要一个模型就能处理多种尺度的超分辨率任务,这与传统方法需要为每个尺度因子单独建模相比,是一个显著的优势。

摘要

近年来,对于有效的超分辨率(SR)技术的需求激增,尤其是对于从2K到8K分辨率的大规模图像。对于基于深度神经网络(DNN)的单图像超分辨率(SISR),由于计算限制,通常需要将图像分解成重叠的块。在这样的块分解方案中,可以根据每个块的难度不同分配计算资源以进一步提高效率,同时保持SR性能。然而,这种方法有一个局限性:在块内均匀分配计算资源,导致包含不同恢复难度像素的块效率降低。为了解决这个问题,我们提出了一种新的方法,称为单图像超分辨率的像素级分类器(PCSR),它旨在自适应地在像素级别分配计算资源。PCSR模型包括一个主干网络、一个像素级分类器和一组不同容量的像素级上采样器。像素级分类器根据其恢复难度将每个像素分配给适当的上采样器,从而优化计算资源的使用。我们的方法允许在推理过程中在性能和计算成本之间平衡,而无需重新训练。我们的实验表明,PCSR在不同背景模型和基准测试中的PSNR-FLOP权衡方面比现有的块分配方法具有优势。

关键词

图像超分辨率、深度学习、像素级分类、计算资源分配

3. 方法

3.1 网络架构

PCSR的概述如图3所示。基于我们之前的讨论,模型由主干网络和一组上采样器组成。此外,我们采用了一个分类器,用于测量HR空间中目标像素的恢复难度。LR输入图像被前馈到主干网络并生成相应的LR特征图。然后,分类器确定每个查询像素的恢复难度,并通过相应的上采样器计算其输出RGB值。

主干网络

我们提出了一种用于高效大图像SR的逐像素计算分配方法。可以使用任何现有的深度SR网络作为我们的主干网络,以适应所需的模型大小。例如,小尺寸的FSRCNN、中等尺寸的CARN、大尺寸的SRResNet,以及其他模型也可以采用。

分类器
上采样器

3.2 训练

4. 实验

相关推荐
*星星之火*几秒前
【大白话 AI 答疑】第6篇 大模型指令微调:instruction/input/output核心解析及案例
服务器·前端·人工智能
元智启1 分钟前
企业级AI智能体开发:从概念到落地的关键技术实践
人工智能
AI指北4 分钟前
每周AI看 | 亚马逊推出AI产品矩阵、网易云商客服Agent项目收录至《2025年中国数字服务产业发展白皮书》
人工智能·ai·ai agent·ai热点
skywalk816314 分钟前
GLM-edge-1.5B-chat 一个特别的cpu可以推理的小型llm模型
人工智能·ollama·llama.cpp
TsingtaoAI16 分钟前
TsingtaoAI荣膺2025澳门首届DSA国际创新创业大赛奖项,RISC-V AI机器人引领行业新突破
人工智能·机器人·risc-v
CClaris18 分钟前
手撕 LSTM:用 NumPy 从零实现 LSTM 前向传播
人工智能·numpy·lstm
夜幕龙29 分钟前
宇树 G1 部署(十一)——遥操作脚本升级 teleop_hand_and_arm_update.py
人工智能·机器人·具身智能
币之互联万物29 分钟前
聚焦新质生产力 科技与金融深度融合赋能创新
人工智能·科技·金融
viperrrrrrrrrr740 分钟前
AI音色克隆
人工智能·深度学习·语音识别
阿杰学AI43 分钟前
AI核心知识35——大语言模型之Generative AI(简洁且通俗易懂版)
人工智能·ai·语言模型·chatgpt·aigc·生成式ai·generative ai