学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
向量引擎小橙19 小时前
从“对话助手”到“数字架构师”:Claude 4.6 Opus 如何凭一己之力,终结全球程序员的“CRUD 焦虑”?
人工智能·python·gpt·深度学习
好好学习天天向上~~19 小时前
9_Linux学习总结_进程状态_僵尸进程_孤儿进程
linux·运维·学习
Quintus五等升19 小时前
深度学习自用笔记
人工智能·笔记·深度学习·学习·机器学习·bert·numpy
acanab19 小时前
ros2 URDF学习
学习
roo_119 小时前
Claude Code教程学习
学习
DisonTangor20 小时前
介绍 GPT‑5.3‑Codex‑Spark
大数据·gpt·spark
-Springer-20 小时前
STM32 学习 —— 个人学习笔记7(ADC 模数转换器 & 单通道及多通道)
笔记·stm32·学习
此刻觐神20 小时前
Windows学习笔记-17(使用MFC读取程序信息并显示)
windows·笔记·学习
专业开发者20 小时前
Wi-Fi 技术学习:802.11ax MU-PPDU的帧格式与字段解析全解
网络·学习
科技林总20 小时前
【系统分析师】7.7 统一建模语言
学习