【PyTorch】PyTorch中数据准备工作(AI生成)

PyTorch深度学习总结

AI第一章 PyTorch中数据准备工作


文章目录

  • PyTorch深度学习总结
  • 前言
  • [一、 数据收集与整理](#一、 数据收集与整理)
  • [二、 数据集类的创建](#二、 数据集类的创建)
  • 三、数据预处理
  • [四、 数据加载器的使用](#四、 数据加载器的使用)
  • [五、 划分训练集、验证集和测试集](#五、 划分训练集、验证集和测试集)

前言

上文介绍torch.nn模块中的全连接层,本文将介绍数据集的准备工作。在 PyTorch 中,数据准备工作是构建和训练深度学习模型的重要基础,以下从多个方面简述相关内容:


一、 数据收集与整理

  • 内容:根据具体的任务需求,收集合适的数据。这些数据需要按照一定的规则进行整理,比如将图像数据按类别分别存放在不同的文件夹中,将文本数据按行分割成样本等。
  • 操作方式 :手动收集数据时,可从公开数据集网站(如 Kaggle、ImageNet 等)下载,或者通过网络爬虫获取数据。整理数据可使用 Python 的 os 模块进行文件操作,使用 pandas 库处理 CSV 文件。

二、 数据集类的创建

  • 内容 :PyTorch 提供了 torch.utils.data.Dataset 抽象类,用户需要自定义一个继承该类的数据集类,并实现 __len____getitem__ 方法。__len__ 方法返回数据集的样本数量,__getitem__ 方法根据索引返回一个样本及其对应的标签。
  • 例子 :对于图像数据集类,__getitem__ 方法可能会读取指定索引的图像文件,对其进行预处理(如调整大小、归一化等),并返回处理后的图像张量和对应的标签。
  • 操作方式:以下是一个简单的图像数据集类示例:
python 复制代码
import torch
from torch.utils.data import Dataset
import os
from PIL import Image

class CustomImageDataset(Dataset):
   def __init__(self, root_dir, transform=None):
       self.root_dir = root_dir
       self.transform = transform
       self.classes = os.listdir(root_dir)
       self.data = []
       for class_name in self.classes:
           class_dir = os.path.join(root_dir, class_name)
           for img_name in os.listdir(class_dir):
               img_path = os.path.join(class_dir, img_name)
               label = self.classes.index(class_name)
               self.data.append((img_path, label))

   def __len__(self):
       return len(self.data)

   def __getitem__(self, idx):
       img_path, label = self.data[idx]
       image = Image.open(img_path).convert('RGB')
       if self.transform:
           image = self.transform(image)
       return image, label

三、数据预处理

  • 内容:对原始数据进行预处理,使其适合模型输入。常见的预处理操作包括图像的缩放、裁剪、归一化,文本的分词、编码等。
  • 例子 :在图像数据预处理中,使用 torchvision.transforms 模块,可将图像调整为固定大小(如 224x224),并进行归一化操作,将像素值缩放到 [0, 1] 或 [-1, 1] 区间。对于文本数据,可使用 torchtext 库进行分词,将每个单词转换为对应的索引。
  • 操作方式:以下是图像预处理的示例代码:
python 复制代码
import torchvision.transforms as transforms

transform = transforms.Compose([
   transforms.Resize((224, 224)),
   transforms.ToTensor(),
   transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
])

四、 数据加载器的使用

  • 内容 :使用 torch.utils.data.DataLoader 类将数据集封装成可迭代的数据加载器。数据加载器可以实现数据的批量加载、打乱顺序、并行加载等功能。
  • 例子:在训练模型时,可将数据集分成多个批次,每个批次包含一定数量的样本(如 32 个),数据加载器会按顺序或随机地将这些批次提供给模型进行训练。
  • 操作方式:结合前面创建的数据集类和预处理操作,创建数据加载器的示例如下:
python 复制代码
from torch.utils.data import DataLoader

# 创建数据集实例
dataset = CustomImageDataset(root_dir='path/to/data', transform=transform)
# 创建数据加载器
dataloader = DataLoader(dataset, batch_size=32, shuffle=True, num_workers=4)

其中,batch_size 表示每个批次的样本数量,shuffleTrue 时表示在每个 epoch 开始时打乱数据顺序,num_workers 表示用于数据加载的子进程数量。


五、 划分训练集、验证集和测试集

  • 内容:为了评估模型的性能,需要将数据集划分为训练集、验证集和测试集。训练集用于模型的训练,验证集用于在训练过程中调整模型的超参数,测试集用于最终评估模型的泛化能力。
  • 例子:通常可按照 70%、15%、15% 的比例划分训练集、验证集和测试集。
  • 操作方式 :可使用 torch.utils.data.random_split 方法进行划分,示例代码如下:
python 复制代码
from torch.utils.data import random_split

train_size = int(0.7 * len(dataset))
val_size = int(0.15 * len(dataset))
test_size = len(dataset) - train_size - val_size

train_dataset, val_dataset, test_dataset = random_split(dataset, [train_size, val_size, test_size])

train_dataloader = DataLoader(train_dataset, batch_size=32, shuffle=True)
val_dataloader = DataLoader(val_dataset, batch_size=32, shuffle=False)
test_dataloader = DataLoader(test_dataset, batch_size=32, shuffle=False)

注意:本文内容由豆包AI生成。

相关推荐
Swaggy T2 分钟前
自动驾驶控制算法——MPC控制算法
linux·人工智能·自动驾驶
2202_756749698 分钟前
1深度学习Pytorch-pytorch、tensor的创建、属性、设备和类型转换、数据转换、常见操作(获取元素、元素运算、形状改变、相乘、广播)
人工智能·pytorch·深度学习·机器学习
软件测试-阿涛5 小时前
【自动化测试】Python Selenium 自动化测试元素定位专业教程
开发语言·python·selenium·自动化
June_陆月6 小时前
pycharm快捷键设置为和vscode一样
ide·vscode·python·pycharm
程序员三藏6 小时前
软件测试之单元测试
自动化测试·软件测试·python·测试工具·职场和发展·单元测试·测试用例
2501_924879367 小时前
口罩识别场景误报率↓79%:陌讯多模态融合算法实战解析
人工智能·深度学习·算法·目标检测·智慧城市
万粉变现经纪人7 小时前
如何解决pip安装报错ModuleNotFoundError: No module named ‘keras’问题
人工智能·python·深度学习·scrapy·pycharm·keras·pip
whaosoft-1437 小时前
51c自动驾驶~合集12
人工智能
Chan167 小时前
【智能协同云图库】第七期:基于AI调用阿里云百炼大模型,实现AI图片编辑功能
java·人工智能·spring boot·后端·spring·ai·ai作画
计算机科研圈7 小时前
字节Seed发布扩散语言模型,推理速度达2146 tokens/s,比同规模自回归快5.4倍
人工智能·语言模型·自然语言处理·数据挖掘·开源·字节