nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
半夏之沫几秒前
✨陈千语✨都懂的自注意力机制
人工智能·机器学习·llm
明月照山海-14 分钟前
机器学习周报三十六
人工智能·机器学习
黄昏贩卖机14 分钟前
mac M芯片安装pytorch
人工智能·pytorch·macos
三块可乐两块冰16 分钟前
机器学习笔记一
笔记·算法·机器学习
zh路西法20 分钟前
【宇树机器人强化学习】(三):OnPolicyRunner和VecEnv以及RolloutStorage的python实现与解析
开发语言·python·深度学习·机器学习·机器人
梯度下降中21 分钟前
Transformer原理精讲
人工智能·深度学习·transformer
海滩游侠22 分钟前
细读经典: ZeRO
深度学习
爱学习的小齐哥哥24 分钟前
鸿蒙常见问题分析三:视频关键帧提取与智能体图像分析
人工智能·pytorch·深度学习·harmonyos·harmony pc·harmonyos app
nonono39 分钟前
深度学习——Transformer学习(2017.06)
深度学习·学习·transformer
Master_oid1 小时前
机器学习34:元学习(Meta Learning)
人工智能·学习·机器学习