学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
小郑加油26 分钟前
python学习Day11:认识与创建CSV文件
开发语言·python·学习
AI360labs_atyun40 分钟前
清华开源AI导师OpenMAIC!30秒生成互动课堂!还能学“养龙虾”
人工智能·科技·学习·ai
学机械的鱼鱼1 小时前
【学习笔记】QGroundControl安装与使用简明指南
笔记·学习
zhangrelay1 小时前
Ubuntu 18.04 经典 / 有趣 / 实用 APT 软件清单
linux·笔记·学习·ubuntu
FserSuN1 小时前
Machine Learning Specialization - Week 1, 1-8学习总结
人工智能·学习·机器学习
chnyi6_ya1 小时前
论文笔记 | RefineAnything:面向完美局部细节的多模态区域精细化
论文阅读·人工智能·学习
YangYang9YangYan1 小时前
2026经济学专业学习数据分析的价值分析
学习·数据挖掘·数据分析
red_redemption2 小时前
自由学习记录(176)
学习
hello_读书就是赚钱2 小时前
提示词工程学习笔记
笔记·学习
Flandern11112 小时前
# 学习AI Agent中了解到的几个概念
人工智能·学习