共享内存和Pytorch中的Dataloader结合

dataloader中通常使用num_workers来指定多线程来进行数据的读取。可以使用共享内存进行加速。

代码地址:https://github.com/POSTECH-CVLab/point-transformer/blob/master/util/s3dis.py

文章目录

    • [1. 共享内存和dataloader结合](#1. 共享内存和dataloader结合)
      • [1.1 在init中把所有的data存储到共享内存中](#1.1 在init中把所有的data存储到共享内存中)
      • [1.2 在getitem从共享内存中读出data](#1.2 在getitem从共享内存中读出data)
    • [2. 怎么查询key在不在共享内存中](#2. 怎么查询key在不在共享内存中)
    • [3. 共享内存的地址是什么,怎么查看](#3. 共享内存的地址是什么,怎么查看)
    • [4. 共享内存有多大](#4. 共享内存有多大)
    • [5. 共享怎么删除](#5. 共享怎么删除)

1. 共享内存和dataloader结合

复制代码
class S3DIS(Dataset):
    def __init__(self, split='train', data_root='trainval', test_area=5, voxel_size=0.04, voxel_max=None, transform=None, shuffle_index=False, loop=1):
        super().__init__()
        self.split, self.voxel_size, self.transform, self.voxel_max, self.shuffle_index, self.loop = split, voxel_size, transform, voxel_max, shuffle_index, loop
        data_list = sorted(os.listdir(data_root))
        data_list = [item[:-4] for item in data_list if 'Area_' in item]
        if split == 'train':
            self.data_list = [item for item in data_list if not 'Area_{}'.format(test_area) in item]
        else:
            self.data_list = [item for item in data_list if 'Area_{}'.format(test_area) in item]
        for item in self.data_list:
            if not os.path.exists("/dev/shm/{}".format(item)):
                data_path = os.path.join(data_root, item + '.npy')
                data = np.load(data_path)  # xyzrgbl, N*7
                sa_create("shm://{}".format(item), data)
        self.data_idx = np.arange(len(self.data_list))
        print("Totally {} samples in {} set.".format(len(self.data_idx), split))

    def __getitem__(self, idx):
        data_idx = self.data_idx[idx % len(self.data_idx)]
        data = SA.attach("shm://{}".format(self.data_list[data_idx])).copy()
        coord, feat, label = data[:, 0:3], data[:, 3:6], data[:, 6]
        coord, feat, label = data_prepare(coord, feat, label, self.split, self.voxel_size, self.voxel_max, self.transform, self.shuffle_index)
        return coord, feat, label

    def __len__(self):
        return len(self.data_idx) * self.loop

1.1 在init中把所有的data存储到共享内存中

复制代码
for item in self.data_list:
    if not os.path.exists("/dev/shm/{}".format(item)):
        data_path = os.path.join(data_root, item + '.npy')
        data = np.load(data_path)  # xyzrgbl, N*7
        sa_create("shm://{}".format(item), data)

key就是文件名,存储在self.data_list中

1.2 在getitem从共享内存中读出data

复制代码
data = SA.attach("shm://{}".format(self.data_list[data_idx])).copy()

2. 怎么查询key在不在共享内存中

os.path.exists("/dev/shm/{}".format(item))能够查询该key在不在共享内存中。

3. 共享内存的地址是什么,怎么查看

复制代码
$ ls /dev/shm  
Area_5_hallway

通过/dev/shm地址访问,但是这部分数据存储在内存中。

4. 共享内存有多大

复制代码
$ df -h   
Filesystem      Size  Used Avail Use% Mounted on
tmpfs           7.8G   44M  7.8G   1% /dev/shm

大小是物理内存的一半

5. 共享怎么删除

复制代码
SA.delete("shm://{}".format('Area_5_hallway'))

SA.delete删除key

相关推荐
哥布林学者6 小时前
吴恩达深度学习课程四:计算机视觉 第四周:卷积网络应用 (一) 人脸识别
深度学习·ai
2501_944452237 小时前
字数统计 Cordova 与 OpenHarmony 混合开发实战
python
骚戴7 小时前
2025 Python AI 实战:零基础调用 LLM API 开发指南
人工智能·python·大模型·llm·api·ai gateway
kobe_OKOK_7 小时前
tdeinge REST API 客户端
python·缓存·django
io_T_T8 小时前
Python os库 os.walk使用(详细教程、带实践)
python
李小白杂货铺8 小时前
国产操作系统/Linux桌面系统使用手记
ubuntu·国产操作系统·银河麒麟·统信·国产cpu·linux桌面系统·国产硬件平台
_XU8 小时前
AI工具如何重塑我的开发日常
前端·人工智能·深度学习
TonyLee0179 小时前
使用argparse模块以及shell脚本
python
Blossom.1189 小时前
Prompt工程与思维链优化实战:从零构建动态Few-Shot与CoT推理引擎
人工智能·分布式·python·智能手机·django·prompt·边缘计算
人工智能培训10 小时前
图神经网络初探(1)
人工智能·深度学习·知识图谱·群体智能·智能体