学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
mashagua34 分钟前
RPA系列-uipath 学习笔记3
笔记·学习·rpa
沐泽Mu1 小时前
嵌入式学习-QT-Day05
开发语言·c++·qt·学习
锦亦之22331 小时前
cesium入门学习二
学习·html
m0_748256142 小时前
前端 MYTED单篇TED词汇学习功能优化
前端·学习
IT古董2 小时前
【机器学习】机器学习的基本分类-半监督学习(Semi-supervised Learning)
学习·机器学习·分类·半监督学习
jbjhzstsl2 小时前
lv_ffmpeg学习及播放rtsp
学习·ffmpeg
青い月の魔女3 小时前
数据结构初阶---二叉树
c语言·数据结构·笔记·学习·算法
网络安全(king)3 小时前
网络安全攻防学习平台 - 基础关
网络·学习·web安全
逸_3 小时前
dify工作流+github actions实现翻译并创建PR
gpt·github·dify
虾球xz3 小时前
游戏引擎学习第59天
学习·游戏引擎