nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
T.i.s4 分钟前
相对自适应判别器(Relative Adaptive Discriminator, RAD)
pytorch·gan
十铭忘4 分钟前
贝叶斯推断、隐马尔可夫模型、卡尔曼滤波
人工智能·深度学习·机器学习
绛橘色的日落(。・∀・)ノ5 分钟前
机器学习
人工智能·笔记·深度学习
众生皆苦,我是红豆奶茶味5 分钟前
【工具】Codex 配置文件速查笔记(截至 2026 年 05 月 09 日)
人工智能·笔记·python·深度学习·神经网络
啦啦啦_999912 小时前
案例之 逻辑回归_电信用户流失预测
算法·机器学习·逻辑回归
我是发哥哈12 小时前
跨AI模型生成视频的五大维度对比:选型避坑指南
大数据·人工智能·学习·机器学习·chatgpt·音视频
机器视觉_Explorer13 小时前
【halcon】编程技巧:鼠标擦除
图像处理·人工智能·深度学习·算法·视觉检测
何陋轩14 小时前
Spring AI实战指南:在Java项目中集成大语言模型
人工智能·后端·机器学习
天天进步201514 小时前
Python全栈项目实战:基于深度学习的语音合成(TTS)系统
开发语言·python·深度学习
香蕉鼠片17 小时前
大模型Function Call
人工智能·深度学习·机器学习·ai