学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
昌兵鼠鼠19 分钟前
LeetCode Hot100 哈希
学习·算法·leetcode·哈希算法
旖旎夜光24 分钟前
哈希(14)(下)
数据结构·c++·学习
2401_848009722 小时前
Redis零基础入门学习
数据库·redis·学习
如果你想拥有什么先让自己配得上拥有3 小时前
全等三角形的判定条件思考
学习·总结
zenpluck3 小时前
RTAB-Map学习记录(1)--论文阅读
c++·论文阅读·学习·机器人
小宋加油啊4 小时前
多模态方法学习
学习·多模态
小猪佩奇TONY4 小时前
OpenCL 学习(4)---- OpenCL 上下文和程序对象
学习
xian_wwq5 小时前
【学习笔记】OAuth 2.0 安全攻防:从 Portswigger 六大实验看认证漏洞挖掘
笔记·学习·安全
babe小鑫5 小时前
大数据运维与管理专业学习数据分析的必要性
大数据·运维·学习
2501_901147835 小时前
粉刷房子问题:从DP基础到空间极致优化学习笔记
笔记·学习·动态规划