Pytorch中的CrossEntropyLoss

CrossEntropyLoss 的输入要求

在 PyTorch 中,CrossEntropyLoss 有以下要求:

  1. 预测值(logits) 的形状为 (N, C, ...),其中:

• N 是样本数(或批次大小)。

• C 是类别数。

• ... 是额外的维度(例如序列长度、图像的高度和宽度等)。

  1. 标签(targets) 的形状为 (N, ...),表示每个样本对应的分类标签。标签是整数索引,范围为 [0, C-1]。

其中重点为:PyTorch 的 CrossEntropyLoss要求输入张量的第二个维度必须是类别的个数,无论是 1D 数据、序列数据还是高维数据,这个要求都是一致的。第二维度始终对应分类任务中的类别数 (num_classes),这是 CrossEntropyLoss 的固定设计。

为什么第二维度必须是类别数?

CrossEntropyLoss 的计算方式基于每个样本的预测概率分布和真实类别标签:

  1. 对于每个样本或位置,CrossEntropyLoss 期望提供一个类别分布的 logits(未经过 softmax 的分值),这个分布存储在输入张量的第二维度。

  2. 损失函数会沿着第二维度(类别维度)计算每个样本的交叉熵损失。

换句话说,第二维度的每个值代表每个类别的 logits,这些 logits 会通过内部的 log_softmax 转换成对数概率,用于交叉熵计算。

相关推荐
clorisqqq1 分钟前
《人工智能现代方法(第四版)》笔记 启程
人工智能·笔记
vibag3 分钟前
LangSmith监控
人工智能·python·语言模型·langchain·大模型
严文文-Chris7 分钟前
向量内积是什么?解决什么问题?
人工智能
亦复何言??10 分钟前
过拟合/灾难性遗忘:SFT vs on-policy RL
人工智能
飞哥数智坊11 分钟前
别让 AI 成了你的“后门”:一个被忽视的安全盲区
人工智能
六边形战士DONK23 分钟前
[强化学习基础05-2] 压缩映射定理
人工智能
YJlio23 分钟前
PsPing 学习笔记(14.7):一条龙网络体检脚本——连通性、延迟、带宽全都要
开发语言·网络·笔记·python·学习·pdf·php
weisian15129 分钟前
入门篇--知名企业-18-阿里巴巴-6--DashScope(灵积):从新手入门到企业落地,推开AI普惠之门,让智能触手可及
人工智能·阿里云·dashscope·灵积平台
2401_8414956434 分钟前
【DeepSeek系列】论文《mHC: Manifold-Constrained Hyper-Connections》全流程复现详解(附Python代码)
人工智能·pytorch·python·深度学习·论文复现·deepseek·mhc模型
汤姆yu35 分钟前
基于python大数据的地震数据可视化分析系统
大数据·python·信息可视化