nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
曹文杰15190301126 小时前
2025 年大模型背景下应用统计本科 计算机方向 培养方案
python·线性代数·机器学习·学习方法
救救孩子把6 小时前
44-机器学习与大模型开发数学教程-4-6 大数定律与中心极限定理
人工智能·机器学习
AI即插即用9 小时前
即插即用系列 | ECCV 2024 WTConv:利用小波变换实现超大感受野的卷积神经网络
图像处理·人工智能·深度学习·神经网络·计算机视觉·cnn·视觉检测
哥布林学者10 小时前
吴恩达深度学习课程四:计算机视觉 第三周:检测算法 (一)目标定位与特征点检测
深度学习·ai
m0_7048878910 小时前
DAY 40
人工智能·深度学习
鲨莎分不晴10 小时前
【前沿技术】Offline RL 全解:当强化学习失去“试错”的权利
人工智能·算法·机器学习
m0_6924571011 小时前
阈值分割图像
图像处理·深度学习·计算机视觉
ys~~11 小时前
git学习
git·vscode·python·深度学习·学习·nlp·github
光羽隹衡11 小时前
机械学习逻辑回归——银行贷款案例
算法·机器学习·逻辑回归