HuggingFace学习笔记--datasets的使用

目录

1--datasets的使用

1-1--加载数据集

1-2--查看数据集

1-3--打乱和排序数据集

1-4--选择和筛选数据集

1-5--划分数据集

1-6--修改数据集

1-7--导出数据集


1--datasets的使用

1-1--加载数据集

代码:

python 复制代码
from datasets import load_dataset, load_from_disk

if __name__ == "__main__":
    # 加载数据集
    dataset = load_dataset(path = 'lansinuote/ChnSentiCorp')
    # 保存数据集
    dataset.save_to_disk(dataset_dict_path = './data/ChnSentiCorp')
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    print(dataset)

输出结果:

python 复制代码
DatasetDict({
    train: Dataset({
        features: ['text', 'label'],
        num_rows: 9600
    })
    validation: Dataset({
        features: ['text', 'label'],
        num_rows: 1200
    })
    test: Dataset({
        features: ['text', 'label'],
        num_rows: 1200
    })
})

1-2--查看数据集

代码:

python 复制代码
from datasets import load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    print(dataset)
    print(dataset[0]) # 查看单个样本

输出结果:

python 复制代码
Dataset({
    features: ['text', 'label'],
    num_rows: 9600
})
{'text': '选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般', 'label': 1}

1-3--打乱和排序数据集

代码:

python 复制代码
from datasets import load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    print(dataset['label'][:10]) # 未排序前是乱序的
    
    # 排序
    sorted_dataset = dataset.sort('label')
    print("sort: ", sorted_dataset['label'][:10])
    print("sort: ", sorted_dataset['label'][-10:])
    
    # 打乱
    shuffled_dataset = sorted_dataset.shuffle(seed = 1) # 设置随机种子打乱
    print("shuffle: ", shuffled_dataset['label'][:10])

输出结果:

python 复制代码
[1, 1, 0, 0, 1, 0, 0, 0, 1, 1]
sort:  [0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
sort:  [1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
shuffle:  [0, 1, 0, 0, 0, 0, 0, 1, 0, 1]

1-4--选择和筛选数据集

代码:

python 复制代码
from datasets import load_dataset, load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    sel_data = dataset.select([0, 10, 20, 30, 40, 50]) # 根据索引选取数据集
    print(sel_data)
    
    # 筛选数据集
    def f(data):
        return data['text'].startswith('选择') # 筛选以选择开头的
    start_with_ar = dataset.filter(f)
    print(len(start_with_ar))
    print(start_with_ar['text'])

输出结果:

python 复制代码
Dataset({
    features: ['text', 'label'],
    num_rows: 6
})
Filter: 100%|█████████████████████████████████████████████████████████████████| 9600/9600 [00:00<00:00, 231601.55 examples/s]
2
['选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般', '选择的事例太离奇了,夸大了心理咨询的现实意义,让人失去了信任感!如果说这样写的效果能在一开始抓住读者的眼球,但是看到案例主人公心理问题的原因解释时就逐渐失去了兴趣,反正有点拣了芝麻丢了西瓜的感觉。']

1-5--划分数据集

代码:

python 复制代码
from datasets import load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    print(dataset)
    # 划分数据集
    new_dataset1 = dataset.train_test_split(test_size = 0.1)
    print(new_dataset1)
    
    # 数据集均分到四个桶里,并取第一个桶
    new_dataset2 = dataset.shard(num_shards = 4, index = 0)
    print(new_dataset2)

输出结果:

python 复制代码
# 训练集
Dataset({
    features: ['text', 'label'],
    num_rows: 9600
})
# 训练集按比例划分
DatasetDict({
    train: Dataset({
        features: ['text', 'label'],
        num_rows: 8640
    })
    test: Dataset({
        features: ['text', 'label'],
        num_rows: 960
    })
})
# 第一桶的数据
Dataset({
    features: ['text', 'label'],
    num_rows: 2400
})

1-6--修改数据集

代码:

python 复制代码
from datasets import load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    # 修改列名,将text更改为mytext
    new_dataset1 = dataset.rename_column('text', 'mytext')
    print(new_dataset1)
    # 删除列名
    new_dataset2 = dataset.remove_columns(['text'])
    print(new_dataset2)
    
    # 修改数据
    def f(data):
        data['text'] = 'My sentence: ' + data['text'] # 每一个句子都增加前缀
        return data
    datatset_map = dataset.map(f)
    print(datatset_map['text'][:5]) 

    # 修改类型
    dataset.set_format(type = 'torch', columns = ['label'])
    print(dataset[0])

输出结果:

python 复制代码
# 更改列名
Dataset({
    features: ['mytext', 'label'],
    num_rows: 9600
})
# 删除列
Dataset({
    features: ['label'],
    num_rows: 9600
})
# 修改数据
['My sentence: 选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般', 
'My sentence: 15.4寸笔记本的键盘确实爽,基本跟台式机差不多了,蛮喜欢数字小键盘,输数字特方便,样子也很美观,做工也相当不错', 
'My sentence: 房间太小。其他的都一般。。。。。。。。。', 
'My sentence: 1.接电源没有几分钟,电源适配器热的不行. 2.摄像头用不起来. 3.机盖的钢琴漆,手不能摸,一摸一个印. 4.硬盘分区不好办.', 
'My sentence: 今天才知道这书还有第6卷,真有点郁闷:为什么同一套书有两种版本呢?当当网是不是该跟出版社商量商量,单独出个第6卷,让我们的孩子不会有所遗憾。']
# 修改类型
{'label': tensor(1)}

1-7--导出数据集

代码:

python 复制代码
from datasets import load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    # 保存为csv格式
    dataset.to_csv(path_or_buf = './data/ChnSentiCorp.csv')
    # 加载csv格式数据
    csv_dataset = load_dataset(path='csv', data_files='./data/ChnSentiCorp.csv', split='train')
    print(dataset[0])
    print(csv_dataset[0])
    
    # 保存为json格式
    dataset.to_json(path_or_buf = './data/ChnSentiCorp.json')
    # 加载json格式数据
    json_dataset = load_dataset(path='json', data_files='./data/ChnSentiCorp.json', split='train')
    print(dataset[1])
    print(json_dataset[1])

输出结果:

python 复制代码
{'text': '选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般', 'label': 1}
{'text': '选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般', 'label': 1}

{'text': '15.4寸笔记本的键盘确实爽,基本跟台式机差不多了,蛮喜欢数字小键盘,输数字特方便,样子也很美观,做工也相当不错', 'label': 1}
{'text': '15.4寸笔记本的键盘确实爽,基本跟台式机差不多了,蛮喜欢数字小键盘,输数字特方便,样子也很美观,做工也相当不错', 'label': 1}
相关推荐
CoovallyAIHub2 小时前
标注成本骤降,DINOv3炸裂发布!冻结 backbone 即拿即用,性能对标SOTA
深度学习·算法·计算机视觉
聚客AI3 小时前
深度拆解AI大模型从训练框架、推理优化到市场趋势与基础设施挑战
图像处理·人工智能·pytorch·深度学习·机器学习·自然语言处理·transformer
arron88994 小时前
YOLOv8n-pose 模型使用
人工智能·深度学习·yolo
Coovally AI模型快速验证12 小时前
农田扫描提速37%!基于检测置信度的无人机“智能抽查”路径规划,Coovally一键加速模型落地
深度学习·算法·yolo·计算机视觉·transformer·无人机
RaymondZhao3413 小时前
【全面推导】策略梯度算法:公式、偏差方差与进化
人工智能·深度学习·算法·机器学习·chatgpt
无规则ai14 小时前
动手学深度学习(pytorch版):第四章节—多层感知机(5)权重衰减
人工智能·pytorch·python·深度学习
网安INF15 小时前
【论文阅读】-《HopSkipJumpAttack: A Query-Efficient Decision-Based Attack》
论文阅读·人工智能·深度学习·网络安全·对抗攻击
雷达学弱狗18 小时前
backward怎么计算的是torch.tensor(2.0, requires_grad=True)变量的梯度
人工智能·pytorch·深度学习
CoovallyAIHub18 小时前
为高空安全上双保险!无人机AI护航,YOLOv5秒判安全带,守护施工生命线
深度学习·算法·计算机视觉
有Li19 小时前
CLIK-Diffusion:用于牙齿矫正的临床知识感知扩散模型|文献速递-深度学习人工智能医疗图像
人工智能·深度学习·文献·医学生