GPT损失和是模型模型是否真的学会(困惑度)。

python 复制代码
#加入输入如下,label 也就是输出希望是targets
inputs = torch.tensor([[16833, 3626, 6100],   # ["every effort moves",
                       [40,    1107, 588]])   #  "I really like"]

targets = torch.tensor([[3626, 6100, 345  ],  # [" effort moves you",
                        [588,  428,  11311]]) #  " really like chocolate"]

#2 用模型跑结果
with torch.no_grad():
    logits = model(inputs)

probas = torch.softmax(logits, dim=-1) # Probability of each token in vocabulary
print(probas.shape) # Shape: (batch_size, num_tokens, vocab_size)

#3、取出对应的单词的概率
# targets_0 " effort moves you", 这三个单词对应的概率
text_idx = 0
target_probas_1 = probas[text_idx, [0, 1, 2], targets[text_idx]]
print("Text 1:", target_probas_1)

# targets_1 " effort moves you", 这三个单词对应的概率
text_idx = 1
target_probas_2 = probas[text_idx, [0, 1, 2], targets[text_idx]]
print("Text 2:", target_probas_2)

# 训练模型让对应位置的概率值接近1,最大化概率。在数学优化中,最大化概率分数的对数比分数值本身更容易,所有取个对数log
# 计算所有标记的预测概率的对数值
log_probas = torch.log(torch.cat((target_probas_1, target_probas_2)))
print(log_probas)
# 对所有标记的概率对数值求均值
avg_log_probas = torch.mean(log_probas)
print(avg_log_probas)

#在深度学习中,我们通常不是最大化平均对数概率,而是遵循标准惯例来最小化平均对数概率的负值;在我们的例子中,不是最大化-10.7722使其接近0,在深度学习中,我们会最小化10.7722使其接近0。
#负-10.7722的值,即10.7722,在深度学习中也被称为  交叉熵损失:(平均对数概率的负值)
neg_avg_log_probas = avg_log_probas * -1
print(neg_avg_log_probas) 
# 结果是 10.77

#交叉上可以直接用pytorch中的一个函数 torch.nn.functional.cross_entropy
logits_flat = logits.flatten(0, 1)
targets_flat = targets.flatten()

print("Flattened logits:", logits_flat.shape)
print("Flattened targets:", targets_flat.shape)
# 交叉熵损失
loss=torch.nn.functional.cross_entropy(logits_flat ,targets_flat) # 也就是平均对数概率的负数
print(loss)# 结果也是10.77

#一个 与交叉熵损失相关的概念是大型语言模型(LLM)的困惑度。
#困惑度perplexity
perplexity = torch.exp(loss)

一个 与交叉熵损失相关的概念是大型语言模型(LLM)的困惑度。

困惑度简单地说就是交叉熵损失的指数函数计算结果 e l o s s e^{loss} eloss

较低的困惑度表明模型预测更接近实际分布

困惑度(Perplexity

困惑度可以被解释为模型在每一步中对下一个标记的平均不确定性,或者说是模型在预测下一个标记时的"有效词汇表大小"。如果模型的困惑度为 P,它认为所有可能的词汇中有 P 个词是同等可能的

困惑度的具体解释:

  1. 困惑度的定义:

    • 困惑度是语言模型在预测下一个词时平均感到的"困惑"程度。数学上,它是对模型的交叉熵损失取指数得到的结果。
    • 如果模型的困惑度为 P,那么可以将 P 解释为模型预测下一个词时,平均来说,它认为所有可能的词汇中有 P 个词是同等可能的。
  2. 可解释性:

    • 困惑度的可解释性来自于它直接与模型的预测不确定性相关。具体来说,困惑度可以被看作是模型在预测下一个词时的"有效词汇表大小"。
    • 例如,假设词汇表中有 47,678 个单词或标记。如果一个语言模型的困惑度是 47,678,那么这意味着模型在每一步预测时,表现得像是随机选择一个词汇表中的任意词,模型没有特别的倾向性。
  3. 极端例子:

    • 如果困惑度为 1,表示模型在每次预测时都非常确定,且只认为一个词是可能的。
    • 如果困惑度等于词汇表大小(如 47,678),表示模型完全不确定,对它来说,词汇表中的每个词都有同等的可能性,这就像是随机选择一个词。

具体例子:

  • 困惑度为 100:

    • 如果一个模型的困惑度为 100,可以理解为这个模型在预测下一个词时,行为上相当于在 100 个同等可能的词中随机选择一个。
    • 尽管词汇表的实际大小可能远大于 100,但模型在这种情况下的"有效词汇表大小"是 100,表明它对大多数词并不确定。
  • 困惑度为 47,678:

    • 在你提到的例子中,如果模型的困惑度是 47,678(假设与词汇表大小相等),这意味着模型对词汇表中的每个单词都感到极大的不确定性,每个单词都有可能被选中。

困惑度(Perplexity)为1的情况表示模型对每一步的预测完全确定,也就是说,模型在预测下一个词时,认为只有一个词是正确的选择,且没有任何不确定性。

困惑度为1的具体含义:

  1. 完全确定性:

    • 当困惑度为1时,模型的预测是完全确定的。也就是说,模型在每个预测时都只会选择一个唯一的词,并且它认为这个词是100%正确的。
    • 在这种情况下,模型在预测下一个词时不会有任何犹豫或不确定性。
  2. 理论极限:

    • 困惑度为1是理论上的最佳值,表示模型的性能是完美的。模型在每一步都准确地预测了下一个词,没有任何错误或不确定性。这种情况在实际应用中几乎是不可能的,因为自然语言的复杂性使得模型总是会有一定程度的不确定性。
  3. 实际意义:

    • 如果一个模型在某个任务或数据集上达到困惑度为1,意味着它完全掌握了该数据集上的模式,能够精确预测每一个下一个词。
    • 这种情况可能出现在非常简单的任务中,或者在过拟合的情况下,即模型过于适应训练数据而不能很好地泛化到新的数据。

总结:

困惑度为1表示模型对其预测完全没有不确定性,这意味着模型对每个输入能够唯一确定下一个词。这种情况表明模型表现完美,但在现实中,这种情况非常罕见。通常,困惑度越接近1,说明模型在任务上表现得越好,但也需要小心避免过拟合。

相关推荐
程序员佳佳4 小时前
【万字硬核】从零构建企业级AI中台:基于Vector Engine整合GPT-5.2、Sora2与Veo3的落地实践指南
人工智能·gpt·chatgpt·ai作画·aigc·api·ai编程
悟道心16 小时前
8. 自然语言处理NLP -GPT
人工智能·gpt·自然语言处理
周周爱喝粥呀2 天前
LLM 中的自回归模型与非自回归模型:GPT 和 BERT 的区别
人工智能·gpt·ai·回归
共绩算力2 天前
DeepSeek V3.2 迈向 GPT-5 级别性能的路径:稀疏注意力、大规模强化学习与上下文重用
人工智能·gpt·共绩算力
百***24372 天前
GPT-5.2 vs DeepSeek-V3.2 全维度对比:一步API适配下的研发选型指南
gpt
百***24372 天前
GPT-5.2与DeepSeek-V3.2选型指南:一步API通用下的全维度技术对比
gpt
维度攻城狮2 天前
科研提速!Zotero Awesome GPT 搭配本地 Ollama 模型使用指南
gpt·zotero·ollama·awesome gpt
victory04313 天前
同一prompt下 doubao qwen gpt kimi的模型训练时长预测不同表现
gpt·prompt
向量引擎3 天前
【万字硬核】解密GPT-5.2-Pro与Sora2底层架构:从Transformer到世界模型,手撸一个高并发AI中台(附Python源码+压测报告)
人工智能·gpt·ai·aigc·ai编程·ai写作·api调用
程序员佳佳4 天前
【万字硬核】从GPT-5.2到Sora2:深度解构多模态大模型的“物理直觉”与Python全栈落地指南(内含Banana2实测)
开发语言·python·gpt·chatgpt·ai作画·aigc·api