PyTorch torch.nn.functional.one_hot用法解析

1.用法

在PyTorch中,我们可以使用torch.nn.functional.one_hot函数来实现One-Hot编码。下面是一个简单的例子:

python 复制代码
import torch
import torch.nn.functional as F
# 假设我们有一个包含类别标签的张量
labels = torch.tensor([0, 2, 1, 0, 2])
# 使用torch.nn.functional.one_hot进行One-Hot编码
one_hot = F.one_hot(labels, num_classes=3)
print(one_hot)

重点在于下面的两点:

2.one_hot的输入需要是非负整数张量(小数和负数都不行)

3.经过one_hot处理后张量维度的变化:

假设输入的张量维度是n,那么输出张量维度就是n+1,而且多的这一维度是加在了最后一维。例如,输入张量是1维的,经过one_hot处理后就变成了2维的。关于这最后一维具体是多少,又有两种情况:

python 复制代码
import torch
import torch.nn.functional as F

a = torch.tensor([[1,1,2]])
b = F.one_hot(a)
c = F.one_hot(a,4)
print(b.shape,c.shape)

A.以上面代码为例,如果不指定num_classes,pytorch默认将a中最大值加1作为标签类别最大数,此时最后一维就等于该最大值。例如,a中最大值是2,标签类别最大数就是2+1=3,那么b的形状就是(1,3,3)

B.如果指定了num_classes,此时最后一维就等于num_classes,那么b的形状就是(1,3,4)

其实说白了最后一维就等于num_classes,区别只在于num_classes是否被提前指定而已

相关推荐
金井PRATHAMA21 分钟前
意象框架:连接感知与认知的统一信息结构分析——基于上古汉语同源词意义系统的词源学与认知语言学探索
人工智能·自然语言处理
聚客AI27 分钟前
🧠深度解析模型压缩革命:减枝、量化、知识蒸馏
人工智能·深度学习·llm
SHIPKING39334 分钟前
【机器学习&深度学习】Ollama、vLLM、LMDeploy对比:选择适合你的 LLM 推理框架
人工智能·深度学习·机器学习
zzywxc7871 小时前
AI 行业应用:金融、医疗、教育、制造业领域的落地案例与技术实现
android·前端·人工智能·chrome·金融·rxjava
新智元1 小时前
刚刚,GPT-5 Pro 自证全新数学定理!OpenAI 总裁直呼颠覆,大佬们集体转发
人工智能·openai
新智元1 小时前
28 岁华人执掌 1.85 万亿科技巨头 AI 大权!一觉醒来,图灵奖得主也要向他汇报
人工智能·openai
居然JuRan1 小时前
从LoRA到QLoRA再到全量微调
人工智能
腾讯云开发者1 小时前
数字化下半场:数智融合如何驱动增长新势能?
人工智能
机器之心1 小时前
字节开源Seed-OSS-36B模型,512k上下文
人工智能·openai
北极的树1 小时前
从源码看Google LangExtract如何应对长文本数据挖掘的挑战
人工智能