nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
falldeep12 小时前
五分钟快速了解DPO
人工智能·机器学习
猪腰子正12 小时前
机器学习实践-01数据准备流程
人工智能·机器学习
Zero12 小时前
机器学习概率论与统计学--(13)线性回归
机器学习·线性回归·概率论·统计学
Dev7z13 小时前
基于深度学习的香梨产量预测系统设计与实现(UI界面+数据集+训练代码)
人工智能·深度学习·yolo12·产量预测·香梨
ZhiqianXia13 小时前
Pytorch 学习笔记(9): PyTorch.Compile
pytorch·笔记·学习
A尘埃13 小时前
深度学习之卷积神经网络CNN(卷积+池化)
人工智能·深度学习·cnn
pzx_00113 小时前
【Pytorch】nn.Embedding函数详解
人工智能·pytorch·embedding
junior_Xin13 小时前
机器学习深度学习beginning5
人工智能·深度学习
龙文浩_13 小时前
AI的jieba分词原理与多模式应用解析
人工智能·pytorch·深度学习·神经网络
Zero13 小时前
机器学习概率论与统计学--(12)假设检验
机器学习·概率论·统计学