nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
Tipriest_2 小时前
torch训练出的模型的组成以及模型训练后的使用和分析办法
人工智能·深度学习·torch·utils
QuiteCoder2 小时前
深度学习的范式演进、架构前沿与通用人工智能之路
人工智能·深度学习
weixin_468466853 小时前
YOLOv13结合代码原理详细解析及模型安装与使用
人工智能·深度学习·yolo·计算机视觉·图像识别·目标识别·yolov13
蹦蹦跳跳真可爱5893 小时前
Python----大模型(GPT-2模型训练加速,训练策略)
人工智能·pytorch·python·gpt·embedding
xwill*3 小时前
π∗0.6: a VLA That Learns From Experience
人工智能·pytorch·python
wjykp6 小时前
109~111集成学习
人工智能·机器学习·集成学习
LiFileHub6 小时前
深度学习全景解析:从技术原理到十大领域落地实践
人工智能·深度学习
Silence_Jy7 小时前
Kimi K2技术报告
人工智能·python·深度学习·transformer
最晚的py7 小时前
rnn循环神经网络
人工智能·rnn·深度学习·神经网络
雍凉明月夜7 小时前
深度学习网络笔记Ⅲ(注意力机制)
笔记·深度学习·神经网络·分类