Pytorch中的CrossEntropyLoss

CrossEntropyLoss 的输入要求

在 PyTorch 中,CrossEntropyLoss 有以下要求:

  1. 预测值(logits) 的形状为 (N, C, ...),其中:

• N 是样本数(或批次大小)。

• C 是类别数。

• ... 是额外的维度(例如序列长度、图像的高度和宽度等)。

  1. 标签(targets) 的形状为 (N, ...),表示每个样本对应的分类标签。标签是整数索引,范围为 [0, C-1]。

其中重点为:PyTorch 的 CrossEntropyLoss要求输入张量的第二个维度必须是类别的个数,无论是 1D 数据、序列数据还是高维数据,这个要求都是一致的。第二维度始终对应分类任务中的类别数 (num_classes),这是 CrossEntropyLoss 的固定设计。

为什么第二维度必须是类别数?

CrossEntropyLoss 的计算方式基于每个样本的预测概率分布和真实类别标签:

  1. 对于每个样本或位置,CrossEntropyLoss 期望提供一个类别分布的 logits(未经过 softmax 的分值),这个分布存储在输入张量的第二维度。

  2. 损失函数会沿着第二维度(类别维度)计算每个样本的交叉熵损失。

换句话说,第二维度的每个值代表每个类别的 logits,这些 logits 会通过内部的 log_softmax 转换成对数概率,用于交叉熵计算。

相关推荐
会一点点设计28 分钟前
2026年设计趋势:当AI遇见人性,不完美成为新美学
人工智能
浩子智控31 分钟前
python程序打包的文件地址处理
开发语言·python·pyqt
Jackey_Song_Odd34 分钟前
Part 1:Python语言核心 - 序列与容器
开发语言·windows·python
m0_6625779744 分钟前
Python迭代器(Iterator)揭秘:for循环背后的故事
jvm·数据库·python
无限大61 小时前
职场逻辑02:3个方法,系统性提升你的深度思考能力
人工智能
Goboy1 小时前
一句话,QClaw帮我自动运营小红书,一日涨粉数百人,这才是社媒运营的终极武器
人工智能·ai编程
北京软秦科技有限公司1 小时前
IACheck+AI审核如何赋能刑事证据检测?全面提升报告法律效力,构建高标准司法鉴定审核体系
人工智能·安全
QYR_111 小时前
香叶醇行业深度解析:香精香料领域核心原料的发展潜力与挑战
大数据·人工智能·物联网
Dylan~~~2 小时前
Redis MCP Server:让 AI 拥有“持久记忆“的革命性方案
数据库·人工智能·redis