nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
JoannaJuanCV4 分钟前
自动驾驶—CARLA 仿真(1)安装与demo测试
人工智能·机器学习·自动驾驶·carla
田里的水稻1 小时前
DT_digital_twin_ROS+Grazebo仿真
深度学习·数据挖掘·数据分析
飞Link1 小时前
GDN:深度学习时代的图偏差网络异常检测全解析
网络·人工智能·深度学习
喏喏心1 小时前
深度强化学习:价值迭代与Bellman方程实践
人工智能·python·学习·机器学习
吐个泡泡v2 小时前
深度学习中的“压缩与解压“艺术:自编码器与VAE详解
深度学习·vae·生成模型·自编码器
l木本I2 小时前
uv 技术详解
人工智能·python·深度学习·机器学习·uv
TracyCoder1232 小时前
机器学习与深度学习基础(五):深度神经网络经典架构简介
深度学习·机器学习·dnn
宁大小白3 小时前
pythonstudy Day31
python·机器学习
xiaoxiaoxiaolll3 小时前
智能计算模拟:第一性原理+分子动力学+机器学习
人工智能·机器学习