关注本专栏(NLP简论:手搓大语言模型实践) 继续学习从头编写、训练自己的大语言模型。
接上集,本章我们将深入说一下大语言模型数据处理部分的细节,并直接提供本部分的完整代码。
【配套资源】
暂时的词汇表:内部配套资料-LX2中文词汇表下载
*
在后面我们会根据需求微调
1. 数据准备
首先,我们需要准备原始文本数据。这些数据可以来自各种来源,如书籍、网页、社交媒体等。在处理这些数据之前,确保它们已经被清洗过,去除了噪声和无关内容。
暂时用不到所以不提供配套资源,后面会提供。
*
2. 词汇表构建
在构建大语言模型时,我们需要将文本转换为模型可以理解的数字形式。这通常通过构建一个词汇表(即Vocabulary)来实现(上一章我们提到过),词汇表中的每个词(或字符)都对应一个唯一的数字(我们成为索引)。
参考代码:
python
vocab = "abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ.,!?;'" # 示例词汇表,之后要用到的中文版大型词汇表见【配套资源】。
char2idx = {u: i for i, u in enumerate(vocab)} # 将每个字对应到数字
idx2char = np.array(vocab) # 将数字对应到每个字
# 打印部分词汇表以验证
print('{')
for char, _ in zip(char2idx, range(20)):
print(f' {repr(char)}: {char2idx[char]},')
print(' ...\n}')
3. 文本预处理
文本预处理是数据处理中的关键步骤,包括分词、去除停用词、词干提取等。在大语言模型中,由于我们通常在字符级别或子词级别操作,所以这些步骤可能相对简单。但是,我们仍然需要处理一些特殊字符,如换行符、制表符等。
4. 文本编码
将文本转换为模型可以处理的数字序列。这通常通过查找词汇表中每个字符的索引来实现。
5. 序列划分
由于大语言模型通常使用序列到序列(Seq2Seq)的学习方式,我们需要将长文本划分为多个较短的序列,每个序列包含一个输入部分和一个目标部分。这通常通过滑动窗口的方式实现。我们之前提到过,模型输入一段文本(序列)推理下一个token(这里是一个字)。
拓展知识(理解不了就不用理解了)
问:
为什么训练数据的X和y都是序列,按照之前说的,不应该是x是序列,y是序列的下一个token吗?
答:
在训练循环神经网络(RNN)时,我们通常使用教师强制(Teacher Forcing)技术。这意味着在每个时间步,模型的输入不仅包括来自上一时间步的隐藏状态,而且还包括来自训练数据集的真实下一个token,而不是模型自己在上一步预测的token。
*
例如,如果我们有一个训练序列 "abcd",并且我们的目标是预测序列的下一个字符,那么目标序列将是"bcde"。在训练过程中,对于每一个时间步,我们都会给模型提供正确的下一个字符,而不是让模型基于自己的预测来做出下一步的预测。
*
具体来说,这是训练时的输入和目标是如何匹配的:
*
时间步1:输入是 "a",目标是 "b"
时间步2:输入是 "b",目标是 "c"
时间步3:输入是 "c",目标是 "d"
时间步4:输入是 "d",目标是 "e"
*
在这个过程中,模型的目标是在每个时间步预测出序列中的下一个字符。由于使用了教师强制,模型在每个时间步都得到了正确的输入,这有助于模型学习序列中的模式。但是,这种方法的一个潜在问题是,如果在推理阶段模型的预测出现错误,这个错误可能会在后续的预测中累积,因为模型现在是在用自己的预测作为输入,而不是真实的序列数据。
因此,训练和预测之间的主要区别在于,训练时使用教师强制提供正确的下一个token,而在预测时模型需要依靠自己的预测来决定后续的输入。
参考函数split_input_target
:
python
def split_input_target(chunk):
input_text = chunk[:-1] # 输入文本为当前序列除最后一个字符外的所有字符
target_text = chunk[1:] # 目标文本为当前序列从第二个字符开始的所有字符
return input_text, target_text
6. 数据集准备
将处理好的数据转换为TensorFlow数据集格式,以便进行高效的批处理和训练。
参考代码片段:
python
import tensorflow as tf
# 假设 BUFFER_SIZE 和 BATCH_SIZE 已经定义
BUFFER_SIZE = 50000
BATCH_SIZE = 64
# 假设 vocab_size, embedding_dim, rnn_units, window 这里就不做定义了
# vocab_size:词汇表大小(有多少个token)
# embedding_dim:编码层维度(从几个维度理解token们)
# rnn_units:RNN(上面拓展知识提到过)层的神经元数量
# window:模型上下文长度(模型基于多长的原文预测下一个token)
# 加载保存的数据集
def load_dataset(path):
dataset = tf.data.experimental.load(path)
return dataset
# 加载数据集
dataset = load_dataset(r'path_to_your_dataset')
# 具体代码见文末
7. 注意事项
- 数据清洗:确保数据干净,无噪声。
- 内存管理:处理大型数据集时,注意内存使用,避免内存溢出。
- 数据增强:如果数据量不足,可以考虑数据增强技术。
- 效率优化:优化数据处理流程,提高训练效率。
通过以上步骤,我们可以为构建大语言模型准备好干净、高效的数据集。接下来,就可以进入模型构建和训练阶段了。
本部分完整代码:
python
def train(
mt=3,
big_file=False,#是否采用大文件加载策略
#微调数据集
path_to_file = r'en_novel.txt',
ntype_='_en',#保存为微调模型名称
#设置vocab版本
vtype_='_lx',#type_#
fen=50,#数据量分几份
fwidx=0,#第几份
BATCH_SIZE = 64,
loadmodel=False,
pass_=-1,
ste=0,
):'''
多出的参数不必理会,后面会用到
'''
global LR,param_data,p_ntype
p_ntype=ntype_
if ntype_[0]!='_':ntype_='_'+ntype_
type_=ntype_
print('path_to_file',path_to_file)
print('LR',LR)
import os
#dataset与vocab是配对的!
if not os.path.exists(r'E:\小思框架\论文\ganskchat\vocab'+vtype_+'.txt'):
raise Exception("can't reading vocab from "+r'E:\小思框架\论文\ganskchat\vocab'+vtype_+'.txt')
else:
with open('E:\\小思框架\\论文\\ganskchat\\vocab'+vtype_+'.txt','r',encoding='utf-8') as f:
vocab=eval(f.read())
UNK=0
unkli=[]
char2idx = {u:i for i, u in enumerate(vocab)}
idx2char = np.array(vocab)
print('{')
for char,_ in zip(char2idx, range(20)):
print(' {:4s}: {:3d},'.format(repr(char), char2idx[char]))
print(' ...\n}')
# 设定每个输入句子长度的最大值
seq_length = dic[mt][2]
def split_input_target(chunk):
input_text = chunk[:-1]
target_text = chunk[1:]
return input_text, target_text
import tensorflow as tf
import pickle
# 假设 BATCH_SIZE 和 BUFFER_SIZE 已经定义好
if 1:
# 设定缓冲区大小,以重新排列数据集
BUFFER_SIZE = 50000
# 词集的长度
vocab_size = len(vocab)
# 嵌入的维度
embedding_dim = dic[mt][0]#int(1024*2*1)
# RNN 的单元数量
rnn_units = dic[mt][1]#int(1024*4*2)
window = dic[mt][2]
# 加载保存的数据集
def load_dataset(path):
dataset = tf.data.experimental.load(path)
return dataset
if os.path.exists(r'E:\小思框架\论文\ganskchat\dataset'+ntype_+'_'+str(fwidx)):#换了batch后要重新处理数据集
print('loading dataset')
# 加载已经打乱过的数据集
dataset = load_dataset(r'E:\小思框架\论文\ganskchat\dataset'+ntype_+'_'+str(fwidx))
else:
if big_file:
text=[]
with open(path_to_file, 'r',encoding='utf-8') as f:
idxlen=0
print('getting length\n')
for _ in tqdm.tqdm(f):
idxlen+=1
st=idxlen//fen*fwidx
ed=idxlen//fen*(fwidx+1)
with open(path_to_file, 'r',encoding='utf-8') as f:
idx=0
print('\n\nrunning data\n')
for _ in tqdm.tqdm(f):
if idx<st:continue
if idx>=ed:
break
text.append(_)
idx+=1
text=''.join(text)
else:
text = open(path_to_file, 'r',encoding='utf-8').read()
idxlen=len(text)
st=idxlen//fen*fwidx
ed=idxlen//fen*(fwidx+1)
text=text[st:ed]
print('data size:',len(text))
#text_as_int = np.array([char2idx[c] for c in text])
text_as_int=[]
cks=list(char2idx.keys())
unk_li=set()
len_=0
for c in tqdm.tqdm(text):
if c in cks:
text_as_int.append(char2idx[c])
else:
c=cc.convert(c)
if c in cks:#转为简体再次尝试
text_as_int.append(char2idx[c])
else:
if not is_add:
if not c in unk_li:
with open('unk'+ntype_+'.txt','w',encoding='utf-8') as f:
f.write(str(len_)+'\n'+str(list(unk_li)))#print('unknow:',repr(c))
unk_li.add(c)
len_+=1
text_as_int.append(UNK)
text_as_int=np.array(text_as_int)
#------------------------------------------------------------------------------------
# 创建训练样本 / 目标
char_dataset = tf.data.Dataset.from_tensor_slices(text_as_int)
if 0:
for i in char_dataset.take(5):
print(i.numpy())
print(idx2char[i.numpy()])
sequences = char_dataset.batch(seq_length+1, drop_remainder=True)
for item in sequences.take(5):
print(repr(''.join(idx2char[(item.numpy())])))
dataset = sequences.map(split_input_target)
dataset = dataset.shuffle(BUFFER_SIZE).batch(BATCH_SIZE, drop_remainder=True)
tf.data.Dataset.save(dataset,'./dataset'+ntype_+'_'+str(fwidx) )