datasets 笔记:加载数据集(基本操作)

参考了huggingface的教程

1 了解数据集基本信息( load_dataset_builder)

  • 在下载数据集之前,通常先快速了解数据集的基本信息会很有帮助。
  • 数据集的信息存储在 DatasetInfo 中,可能包括数据集描述、特征和数据集大小等信息。(不同的数据集提供的信息可能也不相同)
  • 使用 load_dataset_builder() 函数加载数据集生成器,并在不下载数据集的情况下检查数据集的属性
python 复制代码
from datasets import load_dataset_builder
ds_builder = load_dataset_builder("cornell-movie-review-data/rotten_tomatoes")

ds_builder.info.description
#''

from datasets import load_dataset_builder
ds_builder = load_dataset_builder("rotten_tomatoes")

ds_builder.info.description
#''
python 复制代码
from datasets import load_dataset_builder
ds_builder = load_dataset_builder("cornell-movie-review-data/rotten_tomatoes")

ds_builder.info.features
'''
{'text': Value(dtype='string', id=None),
 'label': ClassLabel(names=['neg', 'pos'], id=None)}
'''

至于这个数据集的名字怎么来的,我的理解是,复制完整路径即可

2 加载数据集

2.1 加载所有

此时Datasets 将返回一个 DatasetDict 对象

python 复制代码
from datasets import load_dataset

dataset = load_dataset("rotten_tomatoes")
dataset
'''
DatasetDict({
    train: Dataset({
        features: ['text', 'label'],
        num_rows: 8530
    })
    validation: Dataset({
        features: ['text', 'label'],
        num_rows: 1066
    })
    test: Dataset({
        features: ['text', 'label'],
        num_rows: 1066
    })
})
'''

2.2 加载特定划分

2.2.1 数据集划分

  • 数据集的划分是特定的子集,比如训练集(train)和测试集(test)
  • 可以使用 get_dataset_split_names() 函数查看数据集的划分名称
python 复制代码
from datasets import get_dataset_split_names

get_dataset_split_names("rotten_tomatoes")
#['train', 'validation', 'test']

2.2.2 读取单个

python 复制代码
from datasets import load_dataset

dataset = load_dataset("rotten_tomatoes", split="train")
dataset
'''
Dataset({
    features: ['text', 'label'],
    num_rows: 8530
})
'''

2.3 读取配置

  • 某些数据集包含多个子数据集。例如,MInDS-14 数据集包含多种语言的音频数据,这些子数据集被称为配置或子集。
  • 加载这些数据集时,必须显式选择其中一个配置。
  • 如果没有提供配置名称,Datasets 会抛出 ValueError

2.3.1 获取数据集的所有可用配置

python 复制代码
from datasets import get_dataset_config_names

configs = get_dataset_config_names("PolyAI/minds14")
print(configs)
'''
['cs-CZ', 'de-DE', 'en-AU', 'en-GB', 'en-US', 'es-ES', 'fr-FR', 'it-IT', 'ko-KR', 'nl-NL', 'pl-PL', 'pt-PT', 'ru-RU', 'zh-CN', 'all']
'''

2.3.2 加载需要的配置

python 复制代码
from datasets import load_dataset

mindsFR = load_dataset("PolyAI/minds14", "fr-FR", split="train")

【这一步官网是这么说的,但是我自己是报错的】

2.4 主要参数

|---------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| #### path | 数据集的路径或名称。 * 如果是 Hub 仓库路径(例如 "namespace/dataset_name"),加载该仓库中的数据文件。 * 如果是本地路径,加载本地文件夹中的数据文件(需要配合data_dir/data_files)。 |
| #### data_dir | 数据所在的目录路径 |
| #### data_files | * 数据文件的路径或路径列表。 |
| #### data_files | data_files 是一个列表时: * 结果直接合并(append) :多个文件的数据会被视为一个整体,并按行追加形成一个统一的 Dataset。 * 返回值是一个 Dataset 对象 |
| #### data_files | 可以将 data_files 配置为一个字典,手动映射文件到划分 结果: ds 是一个 DatasetDict 对象,包含多个划分 |
| #### split | * 加载数据集的特定划分。 前10%+后20% 交叉验证 |
| #### cache_dir | 数据集缓存的存储目录,默认是~/.cache/huggingface/datasets |
| #### download_mode | 指定是否重新下载数据集: * REUSE_DATASET_IF_EXISTS(默认):如果已缓存则不重新下载。 * FORCE_REDOWNLOAD:强制重新下载。 |
| #### keep_in_memory | 是否将数据集加载到内存中 |
| #### features | 用于定义 数据集每一列的特征,即每一列的数据类型和结构 |
| #### features | |
| #### features | 嵌套特征 |
| #### revision | 加载特定版本的数据集(如 Git 标签或分支) |
| #### token | Hugging Face Hub 的身份验证令牌。 |
| #### streaming | 是否启用流式加载,适用于超大数据集 |
| #### num_proc | 多进程数量,用于加速数据处理 |

相关推荐
柳鲲鹏1 小时前
jiangdg/AndroidCamera关闭摄像头流程
笔记
warrah2 小时前
k8s迁移——岁月云实战笔记
笔记·容器·kubernetes
岳不谢4 小时前
华为DHCP高级配置学习笔记
网络·笔记·网络协议·学习·华为
19999er6 小时前
CDN信息收集(小迪网络安全笔记~
服务器·网络·笔记·安全·web安全
红色的山茶花6 小时前
YOLOv9-0.1部分代码阅读笔记-dataloaders.py
笔记·深度学习·yolo
1101 11018 小时前
STM32-笔记9-电动车报警器
笔记
饮食有度的元气少女8 小时前
讲PPT 需要注意的事项
笔记
Allen_LVyingbo9 小时前
量子芯片在新医疗领域的应用研究展望
笔记·健康医疗·集成学习