PyTorch交叉熵理解

PyTorch 中的交叉熵损失

CrossEntropyLoss

PyTorch 中使用CrossEntropyLoss 计算交叉熵损失,常用于分类任务。交叉熵损失衡量了模型输出的概率分布与实际标签分布之间的差异,目标是最小化该损失以优化模型。

我们通过一个具体的案例来详细说明 CrossEntropyLoss 的计算过程。

假设我们有一个简单的分类任务,共有 3 个类别。我们有 2 个样本的预测和实际标签。

输入

  • 模型的预测(logits,未经过 softmax 激活)

  • 实际标签

python 复制代码
import torch
import torch.nn as nn

# 模型的预测(logits)
logits = torch.tensor([[2.0, 1.0, 0.1],
                       [0.5, 2.0, 0.3]])

# 实际标签
labels = torch.tensor([0, 2])

计算步骤

  • 步骤 1: Softmax 激活

首先,将 logits 通过 softmax 激活函数转换为概率分布。

python 复制代码
softmax = nn.Softmax(dim=1)
probabilities = softmax(logits)
print(probabilities)

输出

python 复制代码
tensor([[0.6590, 0.2424, 0.0986],
        [0.1587, 0.7113, 0.1299]])
  • 步骤 2: 计算交叉熵

交叉熵损失的计算公式为:

C r o s s E n t r o p y L o s s = − ∑ i = 1 N log ⁡ ( p i , y i ) CrossEntropyLoss=-\sum_{i=1}^{N}{\log{(}}{{p}{i,{{y}{i}}}}) CrossEntropyLoss=−∑i=1Nlog(pi,yi)

其中 N 是样本数量, p i , y i p_{i,y_i} pi,yi是第 i个样本在实际标签 y i y_i yi 位置上的预测概率。

我们手动计算每个样本的交叉熵损失:

  • 对于第一个样本,实际标签为 0,预测概率为 0.6590

l o s s 1 = − log ⁡ ( 0.6590 ) ≈ 0.4171 {{loss}_{1}}=-\log{(}0.6590)\approx 0.4171 loss1=−log(0.6590)≈0.4171

  • 对于第二个样本,实际标签为 2,预测概率为 0.1299

l o s s 2 = − log ⁡ ( 0.1299 ) ≈ 2.0406 {{loss}_{2}}=-\log{(}0.1299)\approx 2.0406 loss2=−log(0.1299)≈2.0406

平均损失为:

m e a n = 0.4171 + 2.0406 2 ≈ 1.2288 mean=\frac{0.4171+2.0406}{2}\approx 1.2288 mean=20.4171+2.0406≈1.2288

  • 步骤 3: 使用 PyTorch 的 CrossEntropyLoss 计算

我们使用 PyTorch 的 CrossEntropyLoss 函数来验证计算结果:

python 复制代码
criterion = nn.CrossEntropyLoss()
loss = criterion(logits, labels)
print(loss.item())

输出

shell 复制代码
1.2288230657577515
  • 步骤4:依据公式使用 PyTorch 计算

依据前面的公式使用 PyTorch 计算来验算结果

python 复制代码
neg_log_p = -torch.log(probabilities)
loss_cal = neg_log_p[torch.arange(neg_log_p.shape[0]), labels].mean()
print(loss_cal.item())

输出

shell 复制代码
1.228823184967041

结果基本一致。

总结

  1. CrossEntropyLoss 接受未经过 softmax 的 logits 作为输入。

  2. 内部首先对 logits 应用 softmax,将其转换为概率分布。

  3. 然后根据实际标签计算交叉熵损失。

相关推荐
查理零世3 分钟前
【算法】经典博弈论问题——巴什博弈 python
开发语言·python·算法
有Li27 分钟前
基于深度学习的微出血自动检测及解剖尺度定位|文献速递-视觉大模型医疗图像应用
人工智能·深度学习
熙曦Sakura32 分钟前
【深度学习】微积分
人工智能·深度学习
qq_2546744135 分钟前
如何用概率论解决真实问题?用随机变量去建模,最大的难题是相关关系
人工智能·神经网络
汤姆和佩琦42 分钟前
2025-1-21-sklearn学习(43) 使用 scikit-learn 介绍机器学习 楼上阑干横斗柄,寒露人远鸡相应。
人工智能·python·学习·机器学习·scikit-learn·sklearn
远洋录44 分钟前
AI Agent的记忆系统实现:从短期对话到长期知识
人工智能·ai·ai agent
HyperAI超神经1 小时前
【TVM教程】为 ARM CPU 自动调优卷积网络
arm开发·人工智能·python·深度学习·机器学习·tvm·编译器
Kai HVZ1 小时前
《OpenCV》——图像透视转换
人工智能·opencv·计算机视觉
IT古董1 小时前
【深度学习】常见模型-卷积神经网络(Convolutional Neural Networks, CNN)
人工智能·深度学习·cnn
Luzem03191 小时前
使用scikit-learn中的KNN包实现对鸢尾花数据集的预测
人工智能·深度学习·机器学习