nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
茗创科技2 分钟前
JNeurosci|盲人与非盲人的枕叶皮层中阅读与言语的相似计算层级:来自 fMRI 与计时经颅磁刺激(TMS)的汇聚证据
机器学习·脑网络·神经科学
超自然祈祷5 分钟前
从gym到gymnasium的倒立摆
人工智能·机器学习
图图的点云库17 分钟前
点云深度学习算法概述
人工智能·深度学习·算法
哥布林学者18 分钟前
高光谱成像(十二)光谱重建(Spectral Reconstruction)
机器学习·高光谱成像
love530love2 小时前
Duix-Avatar 去 Docker Desktop 本地化完整复盘
人工智能·pytorch·windows·python·docker·容器·数字人
码农三叔2 小时前
(10-3)大模型时代的人形机器人感知:多模态Transformer
深度学习·机器人·大模型·transformer·人形机器人
此方ls3 小时前
机器学习聚类算法二——DBSCAN(Density-Based Spatial Clustering of Applications with Noise)
算法·机器学习·聚类
bryant_meng3 小时前
【AI】《Explainable Machine Learning》
人工智能·深度学习·机器学习·计算机视觉·可解释性
就叫你天选之人啦3 小时前
GBDT系列八股(XGBoost、LightGBM)
人工智能·深度学习·学习·机器学习
CoderIsArt3 小时前
StarCoder-3B微调和RAG的技术原理
人工智能·深度学习·机器学习