学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
wdfk_prog4 分钟前
[Linux]学习笔记系列 -- [drivers][mmc][mmc_sdio]
linux·笔记·学习
果果燕11 分钟前
今日学习笔记:双向链表、循环链表、栈
笔记·学习·链表
觉醒大王19 分钟前
AI写的青基中了
人工智能·笔记·深度学习·学习·职场和发展·学习方法
驱动探索者1 小时前
linux mailbox 学习
linux·学习·算法
进阶小白猿1 小时前
Java技术八股学习Day33
java·开发语言·学习
收菜福星1 小时前
当AI Agent成为大学标配:2026年学习模式的深层变革
人工智能·学习
蒟蒻的贤1 小时前
yolo12结构学习
学习
●VON2 小时前
CANN推理引擎:从云端到边缘的极致加速与部署实战
学习·react native
笔画人生2 小时前
深度解析 CANN 项目:以 `ops-transformer` 为例探索高性能 AI 算子库
学习·开源
刘大大Leo2 小时前
GPT-5.3-Codex 炸了:第一个「自己造自己」的 AI 编程模型,到底意味着什么?
人工智能·gpt