GPT损失和是模型模型是否真的学会(困惑度)。

python 复制代码
#加入输入如下,label 也就是输出希望是targets
inputs = torch.tensor([[16833, 3626, 6100],   # ["every effort moves",
                       [40,    1107, 588]])   #  "I really like"]

targets = torch.tensor([[3626, 6100, 345  ],  # [" effort moves you",
                        [588,  428,  11311]]) #  " really like chocolate"]

#2 用模型跑结果
with torch.no_grad():
    logits = model(inputs)

probas = torch.softmax(logits, dim=-1) # Probability of each token in vocabulary
print(probas.shape) # Shape: (batch_size, num_tokens, vocab_size)

#3、取出对应的单词的概率
# targets_0 " effort moves you", 这三个单词对应的概率
text_idx = 0
target_probas_1 = probas[text_idx, [0, 1, 2], targets[text_idx]]
print("Text 1:", target_probas_1)

# targets_1 " effort moves you", 这三个单词对应的概率
text_idx = 1
target_probas_2 = probas[text_idx, [0, 1, 2], targets[text_idx]]
print("Text 2:", target_probas_2)

# 训练模型让对应位置的概率值接近1,最大化概率。在数学优化中,最大化概率分数的对数比分数值本身更容易,所有取个对数log
# 计算所有标记的预测概率的对数值
log_probas = torch.log(torch.cat((target_probas_1, target_probas_2)))
print(log_probas)
# 对所有标记的概率对数值求均值
avg_log_probas = torch.mean(log_probas)
print(avg_log_probas)

#在深度学习中,我们通常不是最大化平均对数概率,而是遵循标准惯例来最小化平均对数概率的负值;在我们的例子中,不是最大化-10.7722使其接近0,在深度学习中,我们会最小化10.7722使其接近0。
#负-10.7722的值,即10.7722,在深度学习中也被称为  交叉熵损失:(平均对数概率的负值)
neg_avg_log_probas = avg_log_probas * -1
print(neg_avg_log_probas) 
# 结果是 10.77

#交叉上可以直接用pytorch中的一个函数 torch.nn.functional.cross_entropy
logits_flat = logits.flatten(0, 1)
targets_flat = targets.flatten()

print("Flattened logits:", logits_flat.shape)
print("Flattened targets:", targets_flat.shape)
# 交叉熵损失
loss=torch.nn.functional.cross_entropy(logits_flat ,targets_flat) # 也就是平均对数概率的负数
print(loss)# 结果也是10.77

#一个 与交叉熵损失相关的概念是大型语言模型(LLM)的困惑度。
#困惑度perplexity
perplexity = torch.exp(loss)

一个 与交叉熵损失相关的概念是大型语言模型(LLM)的困惑度。

困惑度简单地说就是交叉熵损失的指数函数计算结果 e l o s s e^{loss} eloss

较低的困惑度表明模型预测更接近实际分布

困惑度(Perplexity

困惑度可以被解释为模型在每一步中对下一个标记的平均不确定性,或者说是模型在预测下一个标记时的"有效词汇表大小"。如果模型的困惑度为 P,它认为所有可能的词汇中有 P 个词是同等可能的

困惑度的具体解释:

  1. 困惑度的定义:

    • 困惑度是语言模型在预测下一个词时平均感到的"困惑"程度。数学上,它是对模型的交叉熵损失取指数得到的结果。
    • 如果模型的困惑度为 P,那么可以将 P 解释为模型预测下一个词时,平均来说,它认为所有可能的词汇中有 P 个词是同等可能的。
  2. 可解释性:

    • 困惑度的可解释性来自于它直接与模型的预测不确定性相关。具体来说,困惑度可以被看作是模型在预测下一个词时的"有效词汇表大小"。
    • 例如,假设词汇表中有 47,678 个单词或标记。如果一个语言模型的困惑度是 47,678,那么这意味着模型在每一步预测时,表现得像是随机选择一个词汇表中的任意词,模型没有特别的倾向性。
  3. 极端例子:

    • 如果困惑度为 1,表示模型在每次预测时都非常确定,且只认为一个词是可能的。
    • 如果困惑度等于词汇表大小(如 47,678),表示模型完全不确定,对它来说,词汇表中的每个词都有同等的可能性,这就像是随机选择一个词。

具体例子:

  • 困惑度为 100:

    • 如果一个模型的困惑度为 100,可以理解为这个模型在预测下一个词时,行为上相当于在 100 个同等可能的词中随机选择一个。
    • 尽管词汇表的实际大小可能远大于 100,但模型在这种情况下的"有效词汇表大小"是 100,表明它对大多数词并不确定。
  • 困惑度为 47,678:

    • 在你提到的例子中,如果模型的困惑度是 47,678(假设与词汇表大小相等),这意味着模型对词汇表中的每个单词都感到极大的不确定性,每个单词都有可能被选中。

困惑度(Perplexity)为1的情况表示模型对每一步的预测完全确定,也就是说,模型在预测下一个词时,认为只有一个词是正确的选择,且没有任何不确定性。

困惑度为1的具体含义:

  1. 完全确定性:

    • 当困惑度为1时,模型的预测是完全确定的。也就是说,模型在每个预测时都只会选择一个唯一的词,并且它认为这个词是100%正确的。
    • 在这种情况下,模型在预测下一个词时不会有任何犹豫或不确定性。
  2. 理论极限:

    • 困惑度为1是理论上的最佳值,表示模型的性能是完美的。模型在每一步都准确地预测了下一个词,没有任何错误或不确定性。这种情况在实际应用中几乎是不可能的,因为自然语言的复杂性使得模型总是会有一定程度的不确定性。
  3. 实际意义:

    • 如果一个模型在某个任务或数据集上达到困惑度为1,意味着它完全掌握了该数据集上的模式,能够精确预测每一个下一个词。
    • 这种情况可能出现在非常简单的任务中,或者在过拟合的情况下,即模型过于适应训练数据而不能很好地泛化到新的数据。

总结:

困惑度为1表示模型对其预测完全没有不确定性,这意味着模型对每个输入能够唯一确定下一个词。这种情况表明模型表现完美,但在现实中,这种情况非常罕见。通常,困惑度越接近1,说明模型在任务上表现得越好,但也需要小心避免过拟合。

相关推荐
hunteritself14 小时前
ChatGPT高级语音模式正在向Web网页端推出!
人工智能·gpt·chatgpt·openai·语音识别
2402_8713219520 小时前
MATLAB方程组
gpt·学习·线性代数·算法·matlab
xwm10001 天前
【如何用更少的数据作出更好的决策】-gpt生成
gpt
学习前端的小z1 天前
【AIGC】如何准确引导ChatGPT,实现精细化GPTs指令生成
人工智能·gpt·chatgpt·aigc
菜鸟小码农的博客1 天前
昇思MindSpore第四课---GPT实现情感分类
gpt·分类·数据挖掘
bingbingyihao2 天前
代码辅助工具 GPT / Cursor
android·java·gpt
hunteritself3 天前
ChatGPT Search VS Kimi探索版:AI搜索哪家强?!
人工智能·gpt·chatgpt·openai·xai
qq_339191144 天前
笔记本run个llm, 本地如何启动大模型,大模型ubuntu 3b llm启动,llm部署 ollama 黑盒run大模型
gpt
新知图书5 天前
PyTorch深度学习与企业级项目实战-预训练语言模型GPT
人工智能·gpt·语言模型
知来者逆6 天前
讨论大语言模型在学术文献应用中的未来与所带来的可能性和担忧
人工智能·gpt·语言模型·自然语言处理·chatgpt·llm·gpt-4v