nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
AI小云19 分钟前
【机器学习与实战】回归分析与预测:线性回归-03-损失函数与梯度下降
机器学习
隐语SecretFlow1 小时前
国人自研开源隐私计算框架SecretFlow,深度拆解框架及使用【开发者必看】
深度学习
Billy_Zuo2 小时前
人工智能深度学习——卷积神经网络(CNN)
人工智能·深度学习·cnn
羊羊小栈2 小时前
基于「YOLO目标检测 + 多模态AI分析」的遥感影像目标检测分析系统(vue+flask+数据集+模型训练)
人工智能·深度学习·yolo·目标检测·毕业设计·大作业
l12345sy2 小时前
Day24_【深度学习—广播机制】
人工智能·pytorch·深度学习·广播机制
L.fountain2 小时前
机器学习shap分析案例
人工智能·机器学习
weixin_429630262 小时前
机器学习-第一章
人工智能·机器学习
Cedric11132 小时前
机器学习中的距离总结
人工智能·机器学习
寒月霜华8 小时前
机器学习-数据标注
人工智能·机器学习
九章云极AladdinEdu9 小时前
超参数自动化调优指南:Optuna vs. Ray Tune 对比评测
运维·人工智能·深度学习·ai·自动化·gpu算力