学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
军军君0110 分钟前
Three.js基础功能学习十二:常量与核心
前端·javascript·学习·3d·threejs·three·三维
Hello_Embed11 分钟前
RS485 双串口通信 + LCD 实时显示(中断版)
c语言·笔记·单片机·学习·操作系统·嵌入式
confiself15 分钟前
Engram论文学习
学习
崇山峻岭之间31 分钟前
Matlab学习记录36
学习
永远快乐的攻城狮35 分钟前
二、学习电子元器件-电阻器
学习
LateFrames1 小时前
泰勒级数:从 “单点” 到 “理论与实践的鸿沟”
学习·算法
航Hang*1 小时前
第3章:复习篇——第4节:创建、管理视图与索引---题库
网络·数据库·笔记·sql·学习·mysql·期末
爱学习的潇潇1 小时前
Postman学习之常用断言
自动化测试·软件测试·功能测试·学习·程序人生·lua·postman
JeffDingAI2 小时前
【Datawhale学习笔记】NLP 概述
笔记·学习·自然语言处理
非凡ghost2 小时前
SoftPerfect Network Scanner(网络扫描管理工具)
网络·windows·学习·软件需求