学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
ZhiqianXia4 小时前
Gem5 学习笔记(3) : 源代码鸟瞰
笔记·学习
看见代码就想敲5 小时前
java学习之(Maven pom.xml 详细讲解)
java·学习·maven
m0_716765235 小时前
C++巩固案例--通讯录管理系统详解
java·开发语言·c++·经验分享·学习·青少年编程·visual studio
笔夏5 小时前
【安卓学习之socket】socket.io-client
android·学习
楼田莉子5 小时前
序列化与反序列化及其ProtoBuf学习总结
开发语言·网络·c++·后端·学习
我先去打把游戏先6 小时前
Git 一个本地仓库同时推送到两个远程仓库(私人 GitHub + 公司 Git)保姆级教程
git·vscode·单片机·嵌入式硬件·物联网·学习·github
今天你AiPy了吗6 小时前
OpenClaw平替来了!AiPy让AI办公更简单
人工智能·gpt·aigc·ai编程
悠哉悠哉愿意6 小时前
【物联网学习笔记】OLED
笔记·单片机·嵌入式硬件·物联网·学习