nn.functional.softmax(X, dim=-1)

dim=-1表示在最后一个维度(大概率是一行)应用Softmax函数,将值标准化为概率分布。

实例

假设我们有一个张量X,形状为(2,3),内容如下:

复制代码
import torch  
import torch.nn.functional as F  

X = torch.tensor([[1.0, 2.0, 3.0],  
                  [1.0, 2.0, 3.0]])  

# 计算 Softmax  
softmax_result = F.softmax(X, dim=-1)  
print(softmax_result)

输出:

复制代码
tensor([[0.0900, 0.2447, 0.6652],  
        [0.0900, 0.2447, 0.6652]])

可以看到,每一行的输出值加起来为 1,这表示已经进行了Softmax操作。

相关推荐
咚咚王者5 分钟前
人工智能之核心技术 深度学习 第五章 Transformer模型
人工智能·深度学习·transformer
逄逄不是胖胖10 分钟前
《动手学深度学习》-57长短期记忆网络LSTM
人工智能·深度学习·lstm
charlie11451419125 分钟前
机器学习概论:一门教计算机如何“不确定地正确”的学问
人工智能·笔记·机器学习·工程实践
Echo_NGC22371 小时前
【联邦学习完全指南】Part 5:安全攻防与隐私保护
人工智能·深度学习·神经网络·安全·机器学习·联邦学习
清铎1 小时前
项目_华为杯’数模研赛复盘_第二问
深度学习·算法·机器学习
八月瓜科技1 小时前
AI侵权频发:国内判例定边界,国际判决敲警钟
大数据·人工智能·科技·深度学习·机器人
汗流浃背了吧,老弟!1 小时前
LangChain RAG PDF 问答 Demo
人工智能·深度学习
想你依然心痛1 小时前
PaddlePaddle-v3.3:国产深度学习框架的全新突破
人工智能·深度学习·paddlepaddle
工程师老罗1 小时前
Pytorch自定义数据集的用法
开发语言·pytorch·python
工程师老罗2 小时前
Python中__call__和__init__的区别
开发语言·pytorch·python