《昇思25天学习打卡营第3天 | mindspore DataSet 数据集的常见用法》

1. 背景:

使用 mindspore 学习神经网络,打卡第三天;

2. 训练的内容:

使用 mindspore 的常见的数据集 DataSet 的使用方法;

3. 常见的用法小节:

  • 数据集加载

    train_dataset = MnistDataset("MNIST_Data/train", shuffle=False)

  • 数据集迭代(create_tuple_iterator或create_dict_iterator 实现)

    def visualize(dataset):
    figure = plt.figure(figsize=(4,4))
    cols, rows = 3, 3

    复制代码
      plt.subplots_adjust(wspace=0.5, hspace=0.5)
    
      for idx, (image, label) in enumerate(dataset.create_tuple_iterator()):
          figure.add_subplot(rows, cols, idx +1)
          plt.title(int(label))
          plt.axis('off')
          plt.imshow(image.asnumpy().squeeze(), cmap='gray')
          if idx == cols * rows - 1:
              break;
         
      plt.show()

    visualize(train_dataset)

  • 数据集常用操作(shuffer, map, batch):

    shuffer - 随机打乱数据顺序

    train_dataset = train_dataset.shuffle(buffer_size=64)
    visualize(train_dataset)

    image, label = next(train_dataset.create_tuple_iterator())
    print(image.shape, image.dtype)

    map - 对数据进行

    将图像统一除以255,数据类型由uint8转为了float32

    train_dataset = train_dataset.map(vision.Rescale(1.0/255.0, 0), input_columns='image')

    #batch: 有限硬件资源下使用梯度下降进行模型优化的折中方法,可以保证梯度下降的随机性和优化计算量
    train_dataset = train_dataset.batch(batch_size=32)

    batch后的数据增加一维,大小为batch_size。

    image, label = next(train_dataset.create_tuple_iterator())
    print(image.shape, image.dtype)

  • 自定义数据集(可随机访问数据集/可迭代数据集/生成器类型)

    自定义数据加载类,来生成数据集,通过 GeneratorDataset 接口实现数据加载

    实现 getitem, len 方法,进行 索引键直接访问

    class RandomAccessDataset:
    def init(self):
    self._data = np.ones((5, 2))
    self._label = np.zeros((5, 1))

    复制代码
      def __getitem__(self, index):
          return self._data[index], self._label[index]
      
      def __len__(self):
          return len(self._data)

    loader = RandomAccessDataset()
    dataset = GeneratorDataset(source=loader, column_names=['data', 'label'])

    for data in dataset:
    print(data)

    可跌代数据集,实现 iter, next 方法

    应用场景:iter(dataset),读取数据库,远程访问返回的数据流

    class IterableDataset():
    def init(self, start, end):
    self.start = start
    self.end = end

    复制代码
      def __next__(self):
          return next(self.data)
      
      def __iter__(self):
          self.data = iter(range(self.start, self.end))
          return self

    生成器:可迭代数据集类型,依赖 python 的 generator 返回数据

    def my_generator(start, end):
    for i in range(start, end):
    yield i

    dataset = GeneratorDataset(source=lambda: my_generator(3, 6), column_names=['data'])

    for d in dataset:
    print(d)

活动参与链接:

https://xihe.mindspore.cn/events/mindspore-training-camp

相关推荐
deepxuan7 小时前
Day7--python
开发语言·python
曲幽8 小时前
FastAPI不止于API:手把手教你用Jinja2打造动态Web页面
python·fastapi·backend·jinja2·full stack·template engine·web development
cyyt8 小时前
深度学习周报(2.2~2.8)
人工智能·深度学习
禹凕8 小时前
Python编程——进阶知识(多线程)
开发语言·爬虫·python
Ulyanov8 小时前
基于Pymunk物理引擎的2D坦克对战游戏开发
python·游戏·pygame·pymunk
铉铉这波能秀8 小时前
LeetCode Hot100数据结构背景知识之字典(Dictionary)Python2026新版
数据结构·python·算法·leetcode·字典·dictionary
2401_836235868 小时前
财务报表识别产品:从“数据搬运”到“智能决策”的技术革命
人工智能·科技·深度学习·ocr·生活
程序媛徐师姐8 小时前
Python基于爬虫的网络小说数据分析系统【附源码、文档说明】
爬虫·python·python爬虫·网络小说数据分析系统·pytho网络小说数据分析系统·python爬虫网络小说·python爬虫的网络小说数据
清水白石0088 小时前
深入解析 LRU 缓存:从 `@lru_cache` 到手动实现的完整指南
java·python·spring·缓存
JaydenAI8 小时前
[LangChain之链]LangChain的Chain——由Runnable构建的管道
python·langchain