nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
Pelb4 小时前
求导 y = f(x) = x^2
人工智能·深度学习·神经网络·数学建模
笨笨饿6 小时前
30_泰勒级数
c语言·stm32·嵌入式硬件·线性代数·机器学习·自动化·概率论
罗罗攀7 小时前
PyTorch学习笔记|神经网络的损失函数
人工智能·pytorch·笔记·神经网络·学习
枫叶林FYL7 小时前
第9章 因果推理与物理理解
人工智能·算法·机器学习
OYpBNTQXi9 小时前
给Agent Skill添加脚本执行能力
机器学习
枫叶林FYL10 小时前
第10章 符号推理与神经符号AI
pytorch·python·深度学习
OYpBNTQXi10 小时前
拆解 OpenHands(13)--- Memory
机器学习
小超同学你好12 小时前
Transformer 22. Gemma 1 架构详解:Decoder-only、GeGLU、RoPE 与每一步计算
人工智能·深度学习·transformer
枫叶林FYL13 小时前
第 7 章 感知不确定性估计
人工智能·机器学习
沪漂阿龙14 小时前
从感知机到GPT:一个1957年的“神经元”如何引爆2026年的AI革命?
人工智能·gpt·机器学习