nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
憨憨の大鸭鸭几秒前
今日机器学习
人工智能·机器学习
宝贝儿好几秒前
【强化学习】第十章:随机高斯策略
人工智能·python·深度学习·神经网络·机器人·自动驾驶
eihh2333317 分钟前
山东大学软件学院毕业设计(二)
人工智能·深度学习·机器学习
风栖柳白杨1 小时前
【Transformer】核心思想与原理
人工智能·深度学习·transformer
I Promise341 小时前
BEV视角智驾方案业务需求分类与主流技术全解
人工智能·深度学习·计算机视觉
liliangcsdn3 小时前
基于似然比的显著图可解释性方法的探索
人工智能·算法·机器学习
python风控模型3 小时前
A股上市银行2012-2023年度面板数据库,附分析报告
人工智能·机器学习·银行·风控
带娃的IT创业者3 小时前
预测编码=Decoder 训练?Friston 自由能的 Transformer 实现
人工智能·深度学习·transformer·脑机接口·nct·硅基生命·意识编码
小兔崽子去哪了3 小时前
XGBoost,朴素贝叶斯,特征降维,聚类算法
python·机器学习
隔壁大炮3 小时前
08. PyTorch_张量基本创建方式
人工智能·pytorch·python