nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
肥猪猪爸13 小时前
NLP中BIO标签浅析
人工智能·深度学习·神经网络·机器学习·自然语言处理·nlp
范桂飓13 小时前
Transformer 大模型架构深度解析(1)NLP 自然语言处理文本表示方法
人工智能·深度学习·自然语言处理·transformer
xiangzhihong813 小时前
AI大模型面试题之基础篇
人工智能·深度学习
LittroInno13 小时前
低小慢无人机目标识别跟踪
深度学习·无人机·热红外·tofu·低小慢目标
大江东去浪淘尽千古风流人物14 小时前
【Embodied】具身智能基础模型发展
人工智能·机器学习·3d·机器人·概率论
懒羊羊吃辣条14 小时前
充分利用未来已知信息:DAG 用双因果结构把 TSF-X 时序预测推到新高度
人工智能·深度学习·机器学习
(; ̄ェ ̄)。14 小时前
机器学习入门(十一)逻辑回归,分类问题评估
机器学习·分类·逻辑回归
qunaa010114 小时前
【深度学习】基于Sparse-RCNN的多类别蘑菇物种识别与检测系统_2
人工智能·深度学习·目标跟踪
薛不痒14 小时前
深度学习的补充
人工智能·深度学习
_codemonster14 小时前
分布式深度学习训练框架Horovod
人工智能·分布式·深度学习