【Python/Pytorch - 网络模型】-- TV Loss损失函数

文章目录

文章目录

  • [00 写在前面](#00 写在前面)
  • [01 基于Pytorch版本的TV Loss代码](#01 基于Pytorch版本的TV Loss代码)
  • [02 论文下载](#02 论文下载)

00 写在前面

在医学图像重建过程中,经常在代价方程中加入TV 正则项,该正则项作为去噪项,对于重建可以起到很大帮助作用。但是对于一些纹理细节要求较高的任务,加入TV 正则项,在一定程度上可能会降低纹理细节。

对于连续函数,其表达式为:

对于图片而言,即为离散的数值,求每一个像素和横向下一个像素的差的平方,加上纵向下一个像素的差的平方,再开β/2次根:

01 基于Pytorch版本的TV Loss代码

python 复制代码
import torch
from torch.autograd import Variable


class TVLoss(torch.nn.Module):
    """
    TV loss
    """

    def __init__(self, weight=1):
        super(TVLoss, self).__init__()
        self.weight = weight

    def forward(self, x):
        batch_size = x.size()[0]
        h_x = x.size()[2]
        w_x = x.size()[3]
        count_h = self._tensor_size(x[:, :, 1:, :])
        count_w = self._tensor_size(x[:, :, :, 1:])
        h_tv = torch.pow((x[:, :, 1:, :] - x[:, :, :h_x - 1, :]), 2).sum()
        w_tv = torch.pow((x[:, :, :, 1:] - x[:, :, :, :w_x - 1]), 2).sum()
        return self.weight * 2 * (h_tv / count_h + w_tv / count_w) / batch_size

    def _tensor_size(self, t):
        return t.size()[1] * t.size()[2] * t.size()[3]


if __name__ == "__main__":
    x = Variable(
        torch.FloatTensor([[[1, 2, 3], [4, 5, 6], [7, 8, 9]], [[1, 2, 3], [4, 5, 6], [7, 8, 9]]]).view(1, 2, 3, 3),
        requires_grad=True)
    tv = TVLoss()
    result = tv(x)
    print(result)

02 论文下载

Understanding Deep Image Representations by Inverting Them

相关推荐
努力学习的小洋1 分钟前
Python训练打卡Day4:缺失值处理
开发语言·python
郝学胜-神的一滴1 分钟前
Python类属性与实例属性详解及MRO算法演进
开发语言·python·程序人生·算法
阿标在干嘛1 分钟前
从“信息平台”到“决策模拟器”:科技大数据服务的下一站猜想
人工智能·科技
JicasdC123asd1 分钟前
YOLO11-C2TSSA-DYT-Mona-EDFFN改进模型_基于深度学习的起重机与吊载物检测识别研究
人工智能·深度学习
Jing_jing_X2 分钟前
从本地 Demo 到私有化部署:AI 应用开发环境的正确打开方式
人工智能
AI视觉网奇3 分钟前
audio2face 实时驱动 2026笔记
开发语言·python
heda34 分钟前
zip在linux上解压出错Unicode编码-解决
linux·运维·python
智慧医院运行管理解决方案专家4 分钟前
平安医院 智守心安 | AI智能巡逻机器人 全时域守护日志
人工智能·机器人
I'm Salted Fish4 分钟前
基于LLaMA-Factory大语言模型微调实战-训练一个属于自己的大模型
人工智能·语言模型·llama
Deepoch5 分钟前
Deepoc具身模型开发板:让采摘机器人成为果园的“智能农艺师“
人工智能·机器人·农业·采摘机器人·具身模型·deepoc·采摘