nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
一瞬祈望1 小时前
⭐ 深度学习入门体系(第 7 篇): 什么是损失函数?
人工智能·深度学习·cnn·损失函数
阿正的梦工坊1 小时前
Kronecker积详解
人工智能·深度学习·机器学习
Dfreedom.1 小时前
从 model(x) 到__call__:解密深度学习框架的设计基石
人工智能·pytorch·python·深度学习·call
汤姆yu2 小时前
基于深度学习的水稻病虫害检测系统
人工智能·深度学习
手揽回忆怎么睡3 小时前
Streamlit学习实战教程级,一个交互式的机器学习实验平台!
人工智能·学习·机器学习
_codemonster3 小时前
BERT中的padding操作
人工智能·深度学习·bert
滴啦嘟啦哒3 小时前
【机械臂】【基本驱动】二、在gazebo中实现机械臂运动学逆解及物体夹取
深度学习·ros
睡醒了叭3 小时前
图像分割-深度学习-FCN模型
人工智能·深度学习·计算机视觉
汤姆yu4 小时前
基于深度学习的摔倒检测系统
人工智能·深度学习
qq_12498707534 小时前
基于深度学习的蘑菇种类识别系统的设计与实现(源码+论文+部署+安装)
java·大数据·人工智能·深度学习·cnn·cnn算法