【深度学习】CrossEntropyLoss需要手动softmax吗?

【深度学习】CrossEntropyLoss需要手动softmax吗?

问题:CrossEntropyLoss需要手动softmax吗?

之前用 pytorch 实现自己的网络时,使用CrossEntropyLoss的时候将网路输出经 softmax激活层后再计算CrossEntropyLoss。

答案:不需要

调用了损失函数CrossEntropyLoss,最后一层是不需要再加softmax函数激活的。

官方文档

官方文档链接:pytorch-crossentropyloss相当于在输入上应用LogSoftmax,然后NLLLoss

代码解释

python 复制代码
import torch
import torch.nn as nn
import torch.nn.functional as F

criterion = nn.CrossEntropyLoss()

# 模拟网络输出(未经过softmax)
logits = torch.tensor([[0.2447, 3, 1]], requires_grad=True)
# 模拟目标标签
target = torch.tensor([0])

# 使用Softmax + CrossEntropyLoss计算损失
softmax_layer = nn.Softmax(dim=1)
softmax_output = softmax_layer(logits)
loss_softmax_cross_entropy = criterion(softmax_output, target)
print("softmax + CrossEntropyLoss:", loss_softmax_cross_entropy.item())

# 直接使用CrossEntropyLoss计算损失
loss_cross_entropy = criterion(logits, target)
print("CrossEntropyLoss:", loss_cross_entropy.item())

# 使用LogSoftmax + NLLLoss计算损失
softmax_output = torch.softmax(logits, dim=1)
log_softmax_output = torch.log(softmax_output)
log_softmax_nll = F.nll_loss(log_softmax_output, target)
print("LogSoftmax + NLLLoss:", log_softmax_nll.item())
相关推荐
西柚小萌新13 分钟前
【深度学习:进阶篇】--2.4.BN与神经网络调优
人工智能·深度学习·神经网络
金融小师妹15 分钟前
解码美元-黄金负相关:LSTM-Attention因果发现与黄金反弹推演
大数据·人工智能·算法
DZSpace19 分钟前
AI Agent 核心策略解析:Function Calling 与 ReAct 的设计哲学与应用实践
人工智能·大模型
小郑00122 分钟前
智能体还能配置MCP?智灵助理:打造智能交互新时代的全能助手
人工智能
AI大模型技术社26 分钟前
神经网络学习路线图:从感知机到Transformer的认知跃迁
人工智能
黄卷青灯7738 分钟前
把下载的ippicv.tgz放入<opencv_build_dir>/3rdparty/ippicv/download/中cmake依然无法识别
人工智能·opencv·计算机视觉·ippicv
程序员老刘1 小时前
MCP:新时代的API,每个程序员都应该掌握
人工智能·flutter·mcp
Humbunklung1 小时前
全连接层和卷积层
人工智能·python·深度学习·神经网络·机器学习·cnn
广州山泉婚姻1 小时前
解锁高效开发:Spring Boot 3和MyBatis-Flex在智慧零工平台后端的应用实战
人工智能·spring boot·spring
三花AI1 小时前
Higgsfield AI 整合 Flux.1 Kontext:一站式创意工作流解决方案
人工智能