学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
旖旎夜光6 小时前
多态(11)(下)
c++·学习
致Great7 小时前
Ollama 进阶指南
人工智能·gpt·chatgpt·agent·智能体
全栈陈序员7 小时前
【Python】基础语法入门(十七)——文件操作与数据持久化:安全读写本地数据
开发语言·人工智能·python·学习
啄缘之间8 小时前
11. UVM Test [uvm_test]
经验分享·笔记·学习·uvm·总结
RisunJan8 小时前
【行测】类比推理-自称他称全同
学习
石像鬼₧魂石8 小时前
Termux ↔ Windows 靶机 反向连接实操命令清单
linux·windows·学习
非凡ghost8 小时前
JRiver Media Center(媒体管理软件)
android·学习·智能手机·媒体·软件需求
致Great9 小时前
Nano Banana提示语精选
人工智能·gpt·chatgpt·开源·agent
hssfscv9 小时前
Mysql学习笔记——事务
笔记·学习·mysql
charlie11451419110 小时前
现代C++工程实践:简单的IniParser3——改进我们的split
开发语言·c++·笔记·学习