学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
虾球xz1 小时前
游戏引擎学习第230天
c++·学习·游戏引擎
ghost1432 小时前
Python自学第2天:条件语句,循环语句
开发语言·python·学习
铭阳(●´∇`●)3 小时前
Python内置函数---anext()
笔记·python·学习
十年之少3 小时前
网络请求——微信小程序学习笔记
笔记·学习·微信小程序
Listennnn4 小时前
GPT,Bert类模型对比
人工智能·gpt·自然语言处理·bert
cwtlw4 小时前
PhotoShop学习10
笔记·学习·其他·photoshop
梦の5 小时前
C++Cherno 学习笔记day20 [81]-[85] 可视化基准测试、单例模式、小字符串优化sso、跟踪内存分配、左值与右值
c++·笔记·学习
四夕白告木贞5 小时前
stm32week11
stm32·单片机·嵌入式硬件·学习
EvanSun__5 小时前
python学习 -- 综合案例1:设计一款基于python的飞机大战小游戏
python·学习·pygame
向日葵.5 小时前
CMake学习
开发语言·c++·学习