nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
逐云者1231 分钟前
Nested Learning:Google Research 正在尝试重新定义深度学习的“学习结构”
人工智能·深度学习·学习·nested learning·google新模型·快慢记忆·学习结构
西猫雷婶12 分钟前
CNN计算|矩阵扩充方法变化和卷积核移动步长变化
人工智能·pytorch·深度学习·神经网络·矩阵·cnn
weixin_457760002 小时前
深度学习的链式法则
人工智能·深度学习
白日做梦Q2 小时前
GAN 在图像增强中的双刃剑:画质提升 vs 伪影生成
人工智能·深度学习·计算机视觉
Hcoco_me2 小时前
大模型面试题12:Torch的基本操作
pytorch·深度学习·pandas
aitoolhub2 小时前
在线PPT设计工具深度测评:功能覆盖与用户体验对比
深度学习·powerpoint·ux·在线设计
Salt_07282 小时前
DAY27 pipeline管道
python·机器学习
一招定胜负2 小时前
机器学习开篇
人工智能·机器学习
大千AI助手2 小时前
多重共线性:机器学习中的诊断与应对策略
人工智能·机器学习·线性回归·相关性·大千ai助手·多重共线性·线性组合
java1234_小锋3 小时前
Transformer 大语言模型(LLM)基石 - Transformer简介
深度学习·语言模型·llm·transformer·大语言模型