开始构建我们自己的大语言模型:数据处理部分

关注本专栏(NLP简论:手搓大语言模型实践) 继续学习从头编写、训练自己的大语言模型。

接上集,本章我们将深入说一下大语言模型数据处理部分的细节,并直接提供本部分的完整代码。

【配套资源】

暂时的词汇表:内部配套资料-LX2中文词汇表下载

*

在后面我们会根据需求微调

1. 数据准备

首先,我们需要准备原始文本数据。这些数据可以来自各种来源,如书籍、网页、社交媒体等。在处理这些数据之前,确保它们已经被清洗过,去除了噪声和无关内容。
暂时用不到所以不提供配套资源,后面会提供。

*

2. 词汇表构建

在构建大语言模型时,我们需要将文本转换为模型可以理解的数字形式。这通常通过构建一个词汇表(即Vocabulary)来实现(上一章我们提到过),词汇表中的每个词(或字符)都对应一个唯一的数字(我们成为索引)。

参考代码:

python 复制代码
vocab = "abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ.,!?;'"  # 示例词汇表,之后要用到的中文版大型词汇表见【配套资源】。
char2idx = {u: i for i, u in enumerate(vocab)}  # 将每个字对应到数字
idx2char = np.array(vocab)  # 将数字对应到每个字

# 打印部分词汇表以验证
print('{')
for char, _ in zip(char2idx, range(20)):
    print(f'  {repr(char)}: {char2idx[char]},')
print('  ...\n}')

3. 文本预处理

文本预处理是数据处理中的关键步骤,包括分词、去除停用词、词干提取等。在大语言模型中,由于我们通常在字符级别或子词级别操作,所以这些步骤可能相对简单。但是,我们仍然需要处理一些特殊字符,如换行符、制表符等。

4. 文本编码

将文本转换为模型可以处理的数字序列。这通常通过查找词汇表中每个字符的索引来实现。

5. 序列划分

由于大语言模型通常使用序列到序列(Seq2Seq)的学习方式,我们需要将长文本划分为多个较短的序列,每个序列包含一个输入部分和一个目标部分。这通常通过滑动窗口的方式实现。我们之前提到过,模型输入一段文本(序列)推理下一个token(这里是一个字)。

拓展知识(理解不了就不用理解了)


问:

为什么训练数据的X和y都是序列,按照之前说的,不应该是x是序列,y是序列的下一个token吗?

答:

在训练循环神经网络(RNN)时,我们通常使用教师强制(Teacher Forcing)技术。这意味着在每个时间步,模型的输入不仅包括来自上一时间步的隐藏状态,而且还包括来自训练数据集的真实下一个token,而不是模型自己在上一步预测的token。

*

例如,如果我们有一个训练序列 "abcd",并且我们的目标是预测序列的下一个字符,那么目标序列将是"bcde"。在训练过程中,对于每一个时间步,我们都会给模型提供正确的下一个字符,而不是让模型基于自己的预测来做出下一步的预测。

*

具体来说,这是训练时的输入和目标是如何匹配的:

*

时间步1:输入是 "a",目标是 "b"

时间步2:输入是 "b",目标是 "c"

时间步3:输入是 "c",目标是 "d"

时间步4:输入是 "d",目标是 "e"

*

在这个过程中,模型的目标是在每个时间步预测出序列中的下一个字符。由于使用了教师强制,模型在每个时间步都得到了正确的输入,这有助于模型学习序列中的模式。但是,这种方法的一个潜在问题是,如果在推理阶段模型的预测出现错误,这个错误可能会在后续的预测中累积,因为模型现在是在用自己的预测作为输入,而不是真实的序列数据。

因此,训练和预测之间的主要区别在于,训练时使用教师强制提供正确的下一个token,而在预测时模型需要依靠自己的预测来决定后续的输入。


参考函数split_input_target

python 复制代码
def split_input_target(chunk):
    input_text = chunk[:-1]  # 输入文本为当前序列除最后一个字符外的所有字符
    target_text = chunk[1:]  # 目标文本为当前序列从第二个字符开始的所有字符
    return input_text, target_text

6. 数据集准备

将处理好的数据转换为TensorFlow数据集格式,以便进行高效的批处理和训练。

参考代码片段:

python 复制代码
import tensorflow as tf

# 假设 BUFFER_SIZE 和 BATCH_SIZE 已经定义
BUFFER_SIZE = 50000
BATCH_SIZE = 64

# 假设 vocab_size, embedding_dim, rnn_units, window 这里就不做定义了
# vocab_size:词汇表大小(有多少个token)
# embedding_dim:编码层维度(从几个维度理解token们)
# rnn_units:RNN(上面拓展知识提到过)层的神经元数量
# window:模型上下文长度(模型基于多长的原文预测下一个token)

# 加载保存的数据集
def load_dataset(path):
    dataset = tf.data.experimental.load(path)
    return dataset

# 加载数据集
dataset = load_dataset(r'path_to_your_dataset')
# 具体代码见文末

7. 注意事项

  • 数据清洗:确保数据干净,无噪声。
  • 内存管理:处理大型数据集时,注意内存使用,避免内存溢出。
  • 数据增强:如果数据量不足,可以考虑数据增强技术。
  • 效率优化:优化数据处理流程,提高训练效率。

通过以上步骤,我们可以为构建大语言模型准备好干净、高效的数据集。接下来,就可以进入模型构建和训练阶段了。

本部分完整代码:

python 复制代码
                                            
def train(
    mt=3,
    big_file=False,#是否采用大文件加载策略
    #微调数据集
    path_to_file = r'en_novel.txt',
    ntype_='_en',#保存为微调模型名称
    #设置vocab版本
    vtype_='_lx',#type_#
    fen=50,#数据量分几份
    fwidx=0,#第几份
    BATCH_SIZE = 64,
    loadmodel=False,
    pass_=-1,
    ste=0,
    ):'''
    多出的参数不必理会,后面会用到
    '''
    global LR,param_data,p_ntype
    p_ntype=ntype_
    


    if ntype_[0]!='_':ntype_='_'+ntype_
    type_=ntype_
    print('path_to_file',path_to_file)
    print('LR',LR)

    

    import os
    #dataset与vocab是配对的!
    if not os.path.exists(r'E:\小思框架\论文\ganskchat\vocab'+vtype_+'.txt'):
        raise Exception("can't reading vocab from "+r'E:\小思框架\论文\ganskchat\vocab'+vtype_+'.txt')
    else:
        with open('E:\\小思框架\\论文\\ganskchat\\vocab'+vtype_+'.txt','r',encoding='utf-8') as f:
            vocab=eval(f.read())

    UNK=0
    unkli=[]
    
    char2idx = {u:i for i, u in enumerate(vocab)}
    idx2char = np.array(vocab)

    print('{')
    for char,_ in zip(char2idx, range(20)):
        print('  {:4s}: {:3d},'.format(repr(char), char2idx[char]))
    print('  ...\n}')

    # 设定每个输入句子长度的最大值
    seq_length = dic[mt][2]
    
    def split_input_target(chunk):
        input_text = chunk[:-1]
        target_text = chunk[1:]
        return input_text, target_text







    import tensorflow as tf
    import pickle

    # 假设 BATCH_SIZE 和 BUFFER_SIZE 已经定义好
    if 1:
        # 设定缓冲区大小,以重新排列数据集
        BUFFER_SIZE = 50000

    # 词集的长度
    vocab_size = len(vocab)
    # 嵌入的维度
    embedding_dim = dic[mt][0]#int(1024*2*1)
    # RNN 的单元数量
    rnn_units = dic[mt][1]#int(1024*4*2)
    window = dic[mt][2]

    # 加载保存的数据集
    def load_dataset(path):
        dataset = tf.data.experimental.load(path)
        return dataset

    if os.path.exists(r'E:\小思框架\论文\ganskchat\dataset'+ntype_+'_'+str(fwidx)):#换了batch后要重新处理数据集
        print('loading dataset')
        # 加载已经打乱过的数据集
        dataset = load_dataset(r'E:\小思框架\论文\ganskchat\dataset'+ntype_+'_'+str(fwidx))
    else:
        if big_file:
            text=[]
            with open(path_to_file, 'r',encoding='utf-8') as f:
                idxlen=0
                print('getting length\n')
                for _ in tqdm.tqdm(f):
                    idxlen+=1
            
            st=idxlen//fen*fwidx
            ed=idxlen//fen*(fwidx+1)
            
            with open(path_to_file, 'r',encoding='utf-8') as f:
                idx=0
                print('\n\nrunning data\n')
                for _ in tqdm.tqdm(f):
                    if idx<st:continue
                    if idx>=ed:
                        break
                    text.append(_)
                    idx+=1
            text=''.join(text)
        else:
            text = open(path_to_file, 'r',encoding='utf-8').read()
            idxlen=len(text)
            st=idxlen//fen*fwidx
            ed=idxlen//fen*(fwidx+1)
            text=text[st:ed]
            print('data size:',len(text))




        
        #text_as_int = np.array([char2idx[c] for c in text])
        text_as_int=[]
        cks=list(char2idx.keys())

        unk_li=set()
        len_=0

        for c in tqdm.tqdm(text):
            
            if c in cks:
                text_as_int.append(char2idx[c])
            else:
                c=cc.convert(c)
                if c in cks:#转为简体再次尝试
                    text_as_int.append(char2idx[c])
                else:
                    if not is_add:
                        if not c in unk_li:
                            with open('unk'+ntype_+'.txt','w',encoding='utf-8') as f:
                                f.write(str(len_)+'\n'+str(list(unk_li)))#print('unknow:',repr(c))
                            unk_li.add(c)
                            len_+=1
                        text_as_int.append(UNK)



        text_as_int=np.array(text_as_int)
        #------------------------------------------------------------------------------------
        # 创建训练样本 / 目标
        char_dataset = tf.data.Dataset.from_tensor_slices(text_as_int)
        if 0:
            for i in char_dataset.take(5):
              print(i.numpy())
              print(idx2char[i.numpy()])



        sequences = char_dataset.batch(seq_length+1, drop_remainder=True)
        
        for item in sequences.take(5):
          print(repr(''.join(idx2char[(item.numpy())])))
          
        dataset = sequences.map(split_input_target)
        dataset = dataset.shuffle(BUFFER_SIZE).batch(BATCH_SIZE, drop_remainder=True)
        tf.data.Dataset.save(dataset,'./dataset'+ntype_+'_'+str(fwidx) )
相关推荐
开MINI的工科男28 分钟前
【笔记】自动驾驶预测与决策规划_Part3_路径与轨迹规划
人工智能·笔记·自动驾驶·预测与决策
xuanyu223 小时前
Linux常用指令
linux·运维·人工智能
凡人的AI工具箱4 小时前
AI教你学Python 第11天 : 局部变量与全局变量
开发语言·人工智能·后端·python
晓星航4 小时前
Docker本地部署Chatbot Ollama搭建AI聊天机器人并实现远程交互
人工智能·docker·机器人
Kenneth風车4 小时前
【机器学习(五)】分类和回归任务-AdaBoost算法-Sentosa_DSML社区版
人工智能·算法·低代码·机器学习·数据分析
AI小白龙*4 小时前
大模型团队招人(校招):阿里巴巴智能信息,2025届春招来了!
人工智能·langchain·大模型·llm·transformer
空指针异常Null_Point_Ex5 小时前
大模型LLM之SpringAI:Web+AI(一)
人工智能·chatgpt·nlp
Alluxio5 小时前
选择Alluxio来解决AI模型训练场景数据访问的五大理由
大数据·人工智能·分布式·ai·语言模型
AIPaPerPass写论文5 小时前
写论文去哪个网站?2024最佳五款AI毕业论文学术网站
人工智能·深度学习·chatgpt·powerpoint·ai写作
唯创知音5 小时前
电子烟智能化创新体验:WTK6900P语音交互芯片方案,融合频谱计算、精准语音识别与流畅音频播报
人工智能·单片机·物联网·音视频·智能家居·语音识别