学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
BlackTurn34 分钟前
摘要与登记
学习
lazyone101 小时前
推荐一本python学习书:《编程不难》
开发语言·python·学习
赔罪2 小时前
C 语言Union 结构
c语言·开发语言·学习·算法·编程基础
高木的小天才2 小时前
计算机网络学习笔记——第一章、概述
笔记·学习·计算机网络
神舟之光3 小时前
AJAX学习(24.11.1-24.11.14)(包含HTTP协议)
前端·学习·http·ajax
南宫生6 小时前
力扣-Hot100-链表其一【算法学习day.34】
java·学习·算法·leetcode·链表
h汉堡6 小时前
C语言的内存函数
c语言·开发语言·c++·学习
m0_736180448 小时前
20221403郑骁恒 第十周预习报告
学习
海盗猫鸥9 小时前
常见排序算法
学习·算法·排序算法
梨子串桃子_10 小时前
物联网通信技术及应用 | 第七章 NB-IoT与LoRa通信技术 | 自用笔记
笔记·物联网·学习