深度学习(6):Dataset 和 DataLoader

文章目录

  • [Dataset 类](#Dataset 类)
  • [DataLoader 类](#DataLoader 类)

Dataset 类

概念:

  • Dataset 是一个抽象类,用于表示数据集。它定义了如何获取数据集中的单个样本和标签。

作用:

  • 为数据集提供统一的接口,便于数据的读取、预处理和管理。

关键方法:

  • __len__(self): 返回数据集的大小(样本数量)。
  • __getitem__(self, index): 根据索引 index 返回对应的样本和标签。

自定义 Dataset:

需要继承 torch.utils.data.Dataset并实现上述两个方法。

示例(PyTorch):

python 复制代码
import torch
from torch.utils.data import Dataset

class Dataset(Dataset):
    def __init__(self, datas, labels):
        self.datas = datas # 数据文件路径列表
        self.labels = labels # 标签列表

    def __len__(self):
        return len(self.data)

    def __getitem__(self, idx):
        # 加载数据,例如读取图像文件
        data = self.data[idx]
        label = self.labels[idx]
		# 一系列的处理
        return data, label

DataLoader 类

概念:

  • DataLoader 是一个数据迭代器,用于包装 Dataset,以便于批量(batch)加载数据。

作用:

  • 提供批量数据、数据打乱(shuffle)、并行加载(多线程/多进程)等功能,提高数据加载的效率。

关键参数:

  • dataset: 要加载的数据集(Dataset 实例)。
  • batch_size: 每个批次的样本数量。
  • shuffle: 是否在每个 epoch 开始时打乱数据。
  • num_workers: 使用多少子进程来加载数据(0 表示不使用多进程)。
  • collate_fn: 指定如何将一批样本组合成一个批次。

工作流程:

  • Dataset 中按索引取出样本。
  • 使用 collate_fn 将多个样本组合成一个批次。
  • 迭代返回批量数据供模型训练或评估。

示例(PyTorch):

python 复制代码
from torch.utils.data import DataLoader

# 创建 Dataset 实例
dataset = MyDataset(datas, labels)

# 创建 DataLoader 实例
dataloader = DataLoader(dataset, batch_size=32, shuffle=True, num_workers=4)

相关推荐
一切尽在,你来15 小时前
1.1 AI大模型应用开发和Langchain的关系
人工智能·langchain
Coder_Boy_15 小时前
基于Spring AI的分布式在线考试系统-事件处理架构实现方案
人工智能·spring boot·分布式·spring
Light6015 小时前
智链未来:彭山物流园区从物理基建到数据智能体的全维度构建方案
人工智能·系统架构·数字孪生·智慧物流·实施路径·彭山项目
AI资源库15 小时前
GLM-4.7-Flash模型深入解析
人工智能·语言模型
一切尽在,你来15 小时前
1.2 LangChain 1.2.7 版本核心特性与升级点
人工智能·langchain
LYFlied15 小时前
AI大时代下前端跨端解决方案的现状与演进路径
前端·人工智能
深蓝电商API15 小时前
图片验证码识别:pytesseract+opencv入门
人工智能·opencv·计算机视觉·pytesseract
.Katherine௰15 小时前
AI数字人模拟面试机器人
人工智能
光影少年15 小时前
AI 前端 / 高级前端
前端·人工智能·状态模式
zhangshuang-peta16 小时前
OpenCode vs Claude Code vs OpenAI Codex:AI编程助手全面对比
人工智能·ai agent·mcp·peta