学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
weixin_458872615 小时前
东华复试OJ每日3题打卡·复盘76~78
学习
好奇龙猫5 小时前
日语学习-日语知识点小记-日本語体系構造-JLPT-N2前期阶段-第一阶段(12):単語文法
学习
babe小鑫5 小时前
大专市场调查与统计分析专业学习指南
大数据·学习·信息可视化·数据挖掘
weixin_458872616 小时前
东华复试OJ每日3题打卡·复盘79~81
学习
Purple Coder6 小时前
基于人工智能的股票心态文章
学习
承渊政道6 小时前
Linux系统学习【深入剖析Git的原理和使用(上)】
linux·服务器·git·学习
凉、介6 小时前
文件系统(一)——分区表
笔记·学习·嵌入式
happymaker06266 小时前
Java学习日记——DAY24
学习
今儿敲了吗6 小时前
19| 海底高铁
c++·笔记·学习·算法
Asher阿舍技术站6 小时前
【AI基础学习系列】三、LLM基础知识
人工智能·学习·llm