nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
5***o5001 小时前
深度学习代码库
人工智能·深度学习
Predestination王瀞潞2 小时前
Cuda的安装
linux·人工智能·深度学习
二川bro2 小时前
2025深度学习框架对决:TensorFlow与PyPyTorch深度测评
人工智能·深度学习·tensorflow
后端小张2 小时前
【AI 解析】Gemini 3 全面解析:从认知到落地
人工智能·机器学习·ai·语言模型·chatgpt·imagen·gemini
AI大模型学徒3 小时前
NLP基础(八)_马尔可夫模型
算法·机器学习·自然语言处理·nlp·概率论·马尔可夫模型
limenga1023 小时前
奇异值分解(SVD):深度理解神经网络的内在结构
人工智能·深度学习·神经网络·机器学习
秋邱3 小时前
【机器学习】深入解析线性回归模型
人工智能·机器学习·线性回归
●VON4 小时前
人工智能、机器学习与深度学习:从概念到实践
人工智能·深度学习·机器学习
学习中的数据喵4 小时前
机器学习之逻辑回归
人工智能·机器学习·逻辑回归
龙腾AI白云4 小时前
具身智能-普通LLM智能体与具身智能:从语言理解到自主行动
深度学习·数据挖掘