学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
YJlio34 分钟前
PsPing 学习笔记(14.8):常见错误与排障实战(超时、拒绝连接、权限问题)
开发语言·笔记·python·学习·django·pdf·pygame
潲爺1 小时前
Java笔记总结
java·开发语言·笔记·学习
菜的不敢吱声1 小时前
swift学习第一天
开发语言·学习·swift
wdfk_prog1 小时前
[Linux]学习笔记系列 -- [fs]namespace
linux·笔记·学习
L.fountain1 小时前
图像自回归生成(Auto-regressive image generation)实战学习(四)
人工智能·深度学习·学习·数据挖掘·回归
托尼吴1 小时前
milvus 向量数据库学习笔记-基础认识
数据库·学习·milvus
旖旎夜光2 小时前
linux(8)(下)
linux·学习
Hcoco_me2 小时前
大模型面试题37:Scaling Law完全指南
人工智能·深度学习·学习·自然语言处理·transformer
龘龍龙2 小时前
Python基础学习(十)
服务器·python·学习
im_AMBER2 小时前
Leetcode 95 分割链表
数据结构·c++·笔记·学习·算法·leetcode·链表