nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
高洁012 小时前
AI智能体搭建(3)
人工智能·深度学习·算法·数据挖掘·知识图谱
AI科技星3 小时前
时空几何:张祥前统一场论20核心公式深度总结
人工智能·线性代数·算法·机器学习·生活
咋吃都不胖lyh3 小时前
Haversine 距离算法详解(零基础友好版)
线性代数·算法·机器学习
soldierluo4 小时前
向量与向量数据
人工智能·算法·机器学习
Hcoco_me4 小时前
大模型面试题71: DPO有什么缺点?后续对DPO算法有哪些改进?
人工智能·深度学习·算法·自然语言处理·transformer·vllm
武子康5 小时前
大数据-213 Python 手写 K-Means 聚类实战(鸢尾花 Iris 数据集):从距离函数到迭代收敛与坑点
大数据·后端·机器学习
Java后端的Ai之路5 小时前
【机器学习】-长尾分布解读指南
人工智能·机器学习·长尾分布
哥布林学者5 小时前
吴恩达深度学习课程五:自然语言处理 第一周:循环神经网络 课后习题与代码实践
深度学习·ai
TTGGGFF5 小时前
人工智能:[特殊字符] Bert-Base-Chinese预训练模型部署手册
人工智能·深度学习·bert
kebijuelun5 小时前
DeepSeek Engram:给大模型新增一条“记忆稀疏”轴
人工智能·深度学习·语言模型·transformer