nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
乔江seven2 小时前
【李沐 | 动手学深度学习】 21 计算机视觉:微调
人工智能·深度学习·计算机视觉·微调
DuHz8 小时前
论文精读:大语言模型 (Large Language Models, LLM) —— 一项调查
论文阅读·人工智能·深度学习·算法·机器学习·计算机视觉·语言模型
逻辑驱动的ken8 小时前
Java高频面试考点场景题14
java·开发语言·深度学习·面试·职场和发展·求职招聘·春招
乔江seven9 小时前
【李沐 | 动手学深度学习】20 计算机视觉:数据增广(Data Augmentation)
人工智能·深度学习
cyyt10 小时前
深度学习周报(4.20~4.26)
人工智能·深度学习
罗西的思考10 小时前
【OpenClaw】通过 Nanobot 源码学习架构---(10)Heartbeat
人工智能·机器学习
哥布林学者11 小时前
深度学习进阶(十二)可变形池化 deformable RS RoI Pooling
机器学习·ai
老唐77715 小时前
常见经典十大大机器学习算法分类与总结
人工智能·深度学习·神经网络·学习·算法·机器学习·ai
knight_9___15 小时前
LLM工具调用面试篇2
人工智能·python·深度学习·机器学习·agent·rag
用户9901930524515 小时前
Nano-vLLM-MS:基于 nano-vLLM ,支持 MoE 模型和 Speculative Decoding
pytorch·llm