logits和softmax分布

logits

logits是模型的输出分数

在大语言模型里,logits 是每个 token 的"相对偏好分数",可以是正数、负数或零

复制代码
# 输入文本
text = "你好"
inputs = tokenizer(text, return_tensors="pt")

# 获取模型输出
with torch.no_grad():
    outputs = model(**inputs)  # 输出是 ModelOutput 对象

# logits
logits = outputs.logits  # shape: [batch_size, seq_len, vocab_size]
print(logits.shape)
print(logits)  # 每个 token 对应词表每个 token 的分数


# torch.Size([1, 1, 151936])
# tensor([[[ 2.8750,  0.4199,  0.5938,  ..., -1.2109, -1.2109, -1.2109]]],
#        device='cuda:0', dtype=torch.bfloat16)

softmax

softmax公式 ​​​​​​​

​​​​​​​ ​​​​​​​ ​​​​​​​ ​​​​​​​

e≈ 2.71828(自然常数)

分母就是对所有 token 的指数求和

相关推荐
Jay Kay5 分钟前
GVPO:Group Variance Policy Optimization
人工智能·算法·机器学习
风指引着方向16 分钟前
归约操作优化:ops-math 的 Sum/Mean/Max 实现
人工智能·wpf
机器之心17 分钟前
英伟达世界模型再进化,一个模型驱动所有机器人!机器人的GPT时刻真正到来
人工智能·openai
纯爱掌门人22 分钟前
终焉轮回里,藏着 AI 与人类的答案
前端·人工智能·aigc
人工智能AI技术26 分钟前
Transformer:大模型的“万能骨架”
人工智能
gpfyyds66627 分钟前
Python代码练习
开发语言·python
uesowys1 小时前
Apache Spark算法开发指导-Factorization machines classifier
人工智能·算法
人工智能AI技术1 小时前
预训练+微调:大模型的“九年义务教育+专项补课”
人工智能
aircrushin1 小时前
中国多模态大模型历史性突破:智源Emu3自回归统一范式技术深度解读
人工智能
Lsx_2 小时前
前端视角下认识 AI Agent 和 LangChain
前端·人工智能·agent