【PyTorch】数据集

文章目录

  • [1. 创建数据集](#1. 创建数据集)
    • [1.1. 直接继承Dataset类](#1.1. 直接继承Dataset类)
    • [1.2. 使用TensorDataset类](#1.2. 使用TensorDataset类)
  • [2. 数据集的划分](#2. 数据集的划分)
  • [3. 加载数据集](#3. 加载数据集)
  • [4. 将数据转移到GPU](#4. 将数据转移到GPU)

1. 创建数据集

主要是将数据集读入内存,并用Dataset类封装。

1.1. 直接继承Dataset类

必须要重写__getitem__方法,用于根据索引获得相应样本数据。必要时还可以重写__len__方法,用于返回数据集的大小。

python 复制代码
from torch.utils.data import Dataset

class BostonHousingDataset(Dataset):
    """定义波士顿房价数据集"""
    def __init__(self):
        self.data = np.load('../dataset/boston_housing/boston_housing.npz')

    def __getitem__(self, index):
        return self.data['x'][index], self.data['y'][index]

    def __len__(self):
        return self.data['x'].shape[0]

1.2. 使用TensorDataset类

将多个张量组合成一个数据集,要保证所有张量的第一个维度相等,保证每批样本数据格式相同。

python 复制代码
import torch
from torch.utils.data import TensorDataset

data = np.load('../dataset/boston_housing/boston_housing.npz')
X = torch.tensor(data['x'])
y = torch.tensor(data['y'])
dataset = TensorDataset(X, y)

2. 数据集的划分

数据集可以划分为训练集、验证集和测试集。

  • 训练集:用于模型拟合的数据样本集合。
  • 验证集:通常被用来调整模型的参数,以找出效果最佳的模型。
  • 测试集:用于训练好的模型性能评估的数据样本集合。
python 复制代码
from torch.utils.data import random_split

train_size = int(0.8 * len(dataset))
test_size = len(dataset) - train_size
train_dataset, test_dataset = random_split(dataset, [train_size, test_size])

3. 加载数据集

使用DataLoader类将Dataset封装的数据集分成批次并进行迭代,以便于模型训练。DataLoader常用参数如下:

  • dataset
    要加载的数据集。
  • batch_size
    每个数据批次中包含的样本数。默认为1。
  • shuffle
    是否打乱数据集。默认为False。
  • num_workers
    使用几个进程来加载数据。默认为0,即在主进程中加载数据。
  • drop_last
    当数据集样本数不能被batch_size整除时,是否舍弃最后一个不完整的batch。默认为False。
python 复制代码
from torch.utils.data import DataLoader

dataloader = DataLoader(dataset, batch_size=16, shuffle=True)

4. 将数据转移到GPU

一般在要运算时才将数据转移到GPU,有以下两种方法:

  1. var.to(device)
  2. var.cuda()
python 复制代码
import torch

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
for X,y in dataloader:
    # 将数据转移到GPU
    X = X.to(device)
    y = y.to(device)
    # 也可以
    X = X.cuda()
    y = y.cuda()
相关推荐
西猫雷婶13 小时前
CNN计算|原始矩阵扩充后的多维度卷积核计算效果
人工智能·pytorch·深度学习·神经网络·机器学习·矩阵·cnn
nix.gnehc1 天前
PyTorch自动求导
人工智能·pytorch·python
多恩Stone1 天前
【Pytorch 深入理解(2)】减少训练显存-Gradient Checkpointing
人工智能·pytorch·python
broken_utopia1 天前
PyTorch中view/transpose/permute的内存可视化解析
人工智能·pytorch·python
LDG_AGI1 天前
【推荐系统】深度学习训练框架(七):PyTorch DDP(DistributedDataParallel)中,每个rank的batch数必须相同
网络·人工智能·pytorch·深度学习·机器学习·spark·batch
上天夭1 天前
PyTorch的Dataloader模块解析
人工智能·pytorch·python
沐雪轻挽萤1 天前
pytorch模型部署基础知识
人工智能·pytorch·python
nix.gnehc1 天前
PyTorch数据加载与预处理
人工智能·pytorch·python
LDG_AGI1 天前
【推荐系统】深度学习训练框架(六):PyTorch DDP(DistributedDataParallel)数据并行分布式深度学习原理
人工智能·pytorch·分布式·python·深度学习·算法·spark
西猫雷婶1 天前
CNN卷积计算|多维卷积核自动计算
人工智能·pytorch·深度学习·神经网络·机器学习·cnn