语义分割训练精度计算

语义分割训练的output结果一般是[batch_size, num_classes, width, height]这样的形式,而label的结果一般是[batch_size, width, height],类似如下形状,outputs:[4,6,480,320],而真值label:[4,480,320]。由于维度不同,无法直接比较,所以这两者要比较就要采取一点方法。

output里面每个类型都有一个值,要取最大的值作为得到的类别结果,所以要用到torch.max()函数。

python 复制代码
output = torch.max(input, dim)
# input是softmax函数输出的一个tensor
# dim是max函数索引的维度0/1,0是每列的最大值,1是每行的最大值

dim就是维度,我这里应该取1

该函数的输出是:

函数会返回两个tensor,第一个tensor是每行的最大值;第二个tensor是每行最大值的索引。

一般我们不需要tensor每行的最大值,而需要的是索引,也就是结果是哪一类。因为这里的num_classes维度为1,所以dim=1,也就是取出这个维度上的最大值。

python 复制代码
torch.max(output, dim=1)

其次,我们需要比较output和label的值,那就是说对长*宽的所有像素,要比较类别,如果类别一致就加到正确结果中,用正确结果的数量去除以所有像素的总数量,就是精度。这里有两个问题需要解决:

  1. 计算两个tensor之间有多少值相等

在PyTorch中,要计算两个tensor之间有多少值相等,可以使用torch.eq()函数来生成一个布尔型tensor,其中每个元素表示对应位置的元素是否相等(相等为True,不相等为False)。然后,可以使用torch.sum()函数来计算这个布尔型tensor中True的总数,即有多少值相等。但是,需要注意的是,torch.sum()默认计算的是所有元素的和,对于布尔型tensor,True会被当作1处理,False会被当作0处理。

举例如下:

python 复制代码
import torch  
  
# 定义两个tensor  
tensor1 = torch.tensor([1, 2, 3, 4, 5])  
tensor2 = torch.tensor([1, 3, 3, 4, 6])  
  
# 使用torch.eq()比较两个tensor  
equal_mask = torch.eq(tensor1, tensor2)  
  
# 计算相等的值的数量  
equal_count = torch.sum(equal_mask)  
  
print("相等的值的数量:", equal_count)
# 输出:相等的值的数量: tensor(3)

在这个例子中,tensor1和tensor2在位置0、2、3的值是相等的(即1,3和4),所以输出会是相等的值的数量: tensor(3, dtype=torch.int64),表示有3个值相等。

注意,torch.sum()的默认数据类型是torch.int64,但你可以通过指定dtype参数来改变结果的数据类型,例如torch.sum(equal_mask, dtype=torch.float32)。不过,在这个场景下,通常使用默认的torch.int64就足够了。

  1. 获取一个tensor的所有元素总数

在PyTorch中,要获取一个tensor的元素个数(即tensor的总大小),可以使用.numel()方法。这个方法会返回tensor中所有元素的数量,不论tensor的维度如何。

下面是一个简单的例子:

python 复制代码
import torch  
  
# 定义一个tensor  
tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])  
  
# 获取tensor的元素个数  
num_elements = tensor.numel()  
  
print("Tensor的元素个数:", num_elements)
# 输出:Tensor的元素个数: 6

在这个例子中,tensor是一个2x3的二维tensor,包含6个元素。因此,输出将会是Tensor的元素个数: 6。

.numel()方法非常适合于快速计算tensor中元素的总数,无需手动计算各维度的乘积。这是处理不同形状和大小的tensor时的一个非常有用的功能。

综上所述,完整的计算模型训练精度的函数如下:

python 复制代码
def get_acc(y_pred, y_true, num_classes):
    #print("y_pred.shape: ", y_pred.shape)
    #print("y_true.shape: ", y_true.shape)
    temp = torch.max(y_pred, dim=1)
    #print(temp[1])
    #print(temp[1].shape)
    # 比较y_true和temp[1]
    equal_mask = torch.eq(temp[1], y_true) # temp[1]就是返回的dim=1的最大值索引,也即是类别号
    equal_count = torch.sum(equal_mask)
    num_elements = y_true.numel()
    #print("equal_count: ", equal_count)
    #print("num_elements: ", num_elements)
    acc = equal_count/num_elements
    #print("acc: ", acc)
    return acc
相关推荐
Jay Kay4 分钟前
ReLU 新生:从死亡困境到强势回归
人工智能·数据挖掘·回归
Blossom.11814 分钟前
使用Python和Flask构建简单的机器学习API
人工智能·python·深度学习·目标检测·机器学习·数据挖掘·flask
无声旅者1 小时前
AI 模型分类全解:特性与选择指南
人工智能·ai·ai大模型
Grassto1 小时前
Cursor Rules 使用
人工智能
MYH5161 小时前
深度学习在非线性场景中的核心应用领域及向量/张量数据处理案例,结合工业、金融等领域的实际落地场景分析
人工智能·深度学习
Lilith的AI学习日记1 小时前
什么是预训练?深入解读大模型AI的“高考集训”
开发语言·人工智能·深度学习·神经网络·机器学习·ai编程
聚客AI2 小时前
PyTorch玩转CNN:卷积操作可视化+五大经典网络复现+分类项目
人工智能·pytorch·神经网络
程序员岳焱2 小时前
深度剖析:Spring AI 与 LangChain4j,谁才是 Java 程序员的 AI 开发利器?
java·人工智能·后端
Q同学2 小时前
TORL:工具集成强化学习,让大语言模型学会用代码解题
深度学习·神经网络·llm
柠檬味拥抱2 小时前
AI智能体在金融决策系统中的自主学习与行为建模方法探讨
人工智能