nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
larance24 分钟前
[菜鸟教程] 机器学习教程第一课
人工智能·机器学习
li三河29 分钟前
paddleocr识别和推理,并用MNN进行推理
人工智能·深度学习·mnn
bryant_meng33 分钟前
【AI】《Explainable Machine Learning》(2)
人工智能·深度学习·机器学习·计算机视觉·explanation
老鱼说AI1 小时前
大模型学习与面试精讲第六期:损失函数篇
人工智能·深度学习·神经网络·学习·机器学习·语言模型
Joker 0071 小时前
Ubuntu上安装FreeSurfer的详细流程
linux·深度学习·ubuntu
娃娃略2 小时前
【CFG】——条件生成
人工智能·机器学习
哥布林学者2 小时前
深度学习进阶(一)从注意力到自注意力
机器学习·ai
智算菩萨2 小时前
【论文复现】ML-MLM:基于PyTorch的多标签极小学习机完整复现教程(附GPT-5.4辅助科研提示词工程)
人工智能·pytorch·python·gpt·深度学习·论文笔记
Vertira3 小时前
torch.eq、torch.ne、torch.gt、torch.lt、torch.ge、torch.le 等函数详解
pytorch·python·深度学习
?Anita Zhang3 小时前
联邦学习工程落地:从POC到生产的关键技术点
机器学习·分布式训练·数据安全·联邦学习·隐私计算