LSTM自然语言处理情感分析项目(二)加载数据集

目录

一.加载数据集

1.加载词汇表

2.构建一个简单分词器

3.打开评论文件路径并读取内容

4.将评论内容分词后作截断或填充操作

5.遍历填充或截断后的分词表,通过加载的字典来获取每个词对应的独热编码

6.打乱contents内容的顺序,划分数据集

7.返回值

二.数据类型定义

1.共享空间赋值

2.数据转化为张量

3.定义选代器对象的下一个元素

4.其他伴生方法


1. 数据加载器原理与实现路径

  • 当前核心是讲解如何手动实现一个数据加载器,而不是直接使用PyTorch中的标准DataLoader。
  • 实现的关键在于为数据集的对象定义一个__next__()方法,以便使其能够在for循环中被迭代。
  • next()方法的作用是将数据转换为模型所需的输入格式(如X, Y),并将其以元组(tuple)形式返回。

2. 手动构建数据加载器的具体步骤

  • 首先,在数据集中定义数据存储和随机化加载逻辑。
  • 然后,通过实现类中的__next__()方法,遍历数据并将其按批次打包。
  • 在返回batch数据时,需明确其内容构成,例如(batch_x, batch_y)或(batch_x, batch_y, length),并确保数据已正确转换为张量(tensor)类型。
  • 最终通过返回元组的方式,让外部的for循环可以正确地接收每一batch的数据。
python 复制代码
from tqdm import tqdm
import pickle as pkl
import random
import torch
UNK,PAD='<UNK>','<PAD>'

一.加载数据集

1.加载词汇表

pad_size是每个评论的截断长度

python 复制代码
def load_dataset(path,pad_size=70):
    contents=[]
    vocab=pkl.load(open('simplifyweibo_4_moods.pkl','rb'))

使用pickle的load()方法加载上一节保存的词表字典文件

2.构建一个简单分词器

python 复制代码
    tokenizer=lambda x: [y for y in x]

这里就是简单将每一个字当作词划分

3.打开评论文件路径并读取内容

python 复制代码
    with (open(path,'r',encoding='UTF-8') as f):
        i=0
        for line in tqdm(f):
            if i==0:
                i+=1
                continue
            if not line:
                continue
            label=int(line[0])
            content=line[2:].strip('\n')

label是标签

content是评论内容

4.将评论内容分词后作截断或填充操作

如果长度大于pad_size就截断反之填充'<PAD>'字符

python 复制代码
            words_line=[]
            token=tokenizer(content)
            seq_len=len(token)
            if pad_size:
                if len(token)<pad_size:
                    token.extend([PAD]*(pad_size-len(token)))
                else:
                    token=token[:pad_size]
                    seq_len=pad_size

5.遍历填充或截断后的分词表,通过加载的字典来获取每个词对应的独热编码

python 复制代码
            for word in token:
                words_line.append((vocab.get(word,vocab.get(UNK))))
            contents.append((words_line,int(label),seq_len))

向contents中添加该条评论每个词的独热编码列表和标签作为一个元组,与评论长度再组成一个元组返回

6.打乱contents内容的顺序,划分数据集

前80%作为训练集

80%-90%作为验证集

90%-100%作为测试集

python 复制代码
        random.shuffle(contents)#打乱顺序
        train_data=contents[:int(len(contents)*0.8)]
        dev_data=contents[int(len(contents)*0.8):int(len(contents)*0.9)]
        test_data=contents[int(len(contents)*0.9):]

7.返回值

python 复制代码
        return vocab,train_data,dev_data,test_data

返回此表词表和各个数据集

二.数据类型定义

为了再接下来的模型训练过程中我们能够循环迭代的取出数据,所以我们自定义一种数据类型包含__next__()方法

1.共享空间赋值

python 复制代码
class DatasetIterater(object):
    def __init__(self,batches,batch_size,device):
        self.batch_size=batch_size
        self.batches=batches
        self.n_batches=len(batches)//batch_size
        self.residue=False#记录划分后的数据是否存在剩余的数据
        if len(batches)%self.n_batches!=0:
            self.residue=True
        self.index=0
        self.device=device

batches是传进来的训练或测试数据

batch_size是每个批次的需要训练或测试的评论数据条数

n_batches是总共需要训练或测试的次数

residue记录划分后的数据是否存在剩余的数据

2.数据转化为张量

python 复制代码
     def _to_tensor(self,datas):
        x=torch.LongTensor([_[0] for _ in datas]).to(self.device)#评论内容
        y=torch.LongTensor([_[1] for _ in datas]).to(self.device)#评论情感
        seq_len=torch.LongTensor([_[2] for _ in datas]).to(self.device)
        return (x,seq_len),y

3.定义选代器对象的下一个元素

复制代码
--getitem__:是通过索引的方式获取数据对象中的内容。__next__ 是使用 for i in train_iter:迭代获取对象
python 复制代码
    def __next__(self):#用于定义选代器对象的下一个元素。当一个对象实现了_next 方法时,它可以被用于创建迭代器对象。
        if self.residue and self.index==self.n_batches:#当读取到数据的最后一个batch:
            batches=self.batches[self.index*self.batch_size : len(self.batches)]
            self.index+=1
            batches=self._to_tensor(batches)
            return batches
        elif self.index>self.n_batches:#当读取完最后一个batch时:
            self.index=0
            raise StopIteration#为了防止迭代永远进行,我们可以使用StopIteration(停止迭代)语句
        else:#当没有读取到最后一个batch时:
            batches=self.batches[self.index*self.batch_size : (self.index+1)*self.batch_size]#提取当前bathsize的数据
            self.index+=1
            batches=self._to_tensor(batches)
            return batches

注意:这里是利用上面的方法将数据转化为张量再返回的

4.其他伴生方法

python 复制代码
    def __iter__(self):
        return self

    def __len__(self):
        if self.residue:
            return self.n_batches+1
        else:
            return self.n_batches
相关推荐
可触的未来,发芽的智生44 分钟前
一万个为什么:汉语词性对NLP的作用
python·神经网络·程序人生·自然语言处理
从后端到QT8 小时前
大语言模型本地部署之转录文本总结
人工智能·语言模型·自然语言处理
Aurora-silas20 小时前
LLM微调尝试——MAC版
人工智能·pytorch·深度学习·macos·机器学习·语言模型·自然语言处理
空白到白21 小时前
BERT,GPT,ELMO模型对比
人工智能·gpt·自然语言处理·bert
空白到白21 小时前
BERT-微调任务
人工智能·自然语言处理·bert
墨利昂1 天前
自然语言处理NLP的数据预处理:从原始文本到模型输入(MindSpore版)
人工智能·自然语言处理
Python算法实战1 天前
平安大模型面试题:Self-Attention 原理与多头注意力设计
人工智能·算法·自然语言处理·大模型·面试题
nju_spy1 天前
牛客网 AI题(一)机器学习 + 深度学习
人工智能·深度学习·机器学习·lstm·笔试·损失函数·自注意力机制
言之。1 天前
大语言模型科普报告
人工智能·语言模型·自然语言处理