学习小型gpt源码(自用)

数据集构建_哔哩哔哩_bilibili

(b站上有一系列课,从数据处理到模型构建和训练使用)

什么是batch?

为什么一个batch内的句子要一样长?

不同batch的长度可以不一样,但是同一个batch内长度一样!

可以使用预训练的embedding矩阵

如果使用相同的预训练embedding矩阵,同样的词在不同的模型中应该对应相同的初始向量。(没有微调embedding矩阵的情况下)使用相同的词汇表即可。

mask的地方换成很大的负数,使其在softmax里面变成0

一般有2类mask

1. 屏蔽后面信息的mask(Look-ahead Mask / Causal Mask)

这种mask用于防止模型在训练过程中看到未来的词汇。通常在自回归模型(如语言模型)中使用,在生成某个词时,只允许模型看到它之前的词。

2. 屏蔽padding的mask(Padding Mask)

这种mask用于在处理不定长序列时屏蔽填充的部分。填充通常是为了将所有序列扩展到相同长度,以便可以批处理。我们不希望模型在处理这些填充值时产生误导。

相关推荐
小新同学^O^13 小时前
简单学习 --> 数据加密
java·数据库·学习·数据加密
AOwhisky13 小时前
Docker 学习笔记:从生态系统到镜像构建
linux·运维·笔记·学习·docker·容器
知识分享小能手13 小时前
R语言入门学习教程,从入门到精通,R语言数据结构(4)
数据结构·学习·r语言
不灭锦鲤14 小时前
网络安全学习第105天
学习·安全·web安全
金玉满堂@bj14 小时前
大模型(AI应用开发)完整学习路线|零基础可落地版
人工智能·学习
hmbbcsm1 天前
关于transformors库的学习笔记
笔记·学习
minglie11 天前
qemu相关脚本
学习
@小博的博客1 天前
CSDN年度技术趋势预测的技术
学习
可可西里_X_back1 天前
Linux学习(二)- 驱动开发步骤
linux·驱动开发·学习
GISer_Jing1 天前
测绘与GIS考试高频考点选择题精选
学习·arcgis