pytorch定义datase多次重复采样

有的时候训练需要对样本重复抽样为一个batch,可以按如下格式定义:

bash 复制代码
class TrainLoader(Dataset):
    def __init__(self, fns, repeat=1):
        super(TrainLoader, self).__init__()
        self.length = len(fns) # 数据数量
        self.repeat = repeat # 数据重复次数
    def __getitem__(self, idx):
        idx = idx % self.length 
    def __len__(self):
        return self.length * self.repeat           
相关推荐
TeDi TIVE10 小时前
开源模型应用落地-工具使用篇-Spring AI-高阶用法(九)
人工智能·spring·开源
2301_8038756110 小时前
PHP 中处理会话数组时的类型错误解析与修复指南
jvm·数据库·python
m0_7436239210 小时前
c++如何批量修改文件后缀名_std--filesystem--replace_extension【实战】
jvm·数据库·python
MY_TEUCK10 小时前
Sealos 平台部署实战指南:结合 Cursor 与版本发布流程
java·人工智能·学习·aigc
三毛的二哥10 小时前
BEV:典型BEV算法总结
人工智能·算法·计算机视觉·3d
j_xxx404_10 小时前
大语言模型 (LLM) 零基础入门:核心原理、训练机制与能力全解
人工智能·ai·transformer
飞哥数智坊10 小时前
全新 SOLO 在日常办公中的实际体验
人工智能·solo
2501_9142459311 小时前
CSS如何处理CSS变量作用域冲突_利用特定类名重写变量值
jvm·数据库·python
菜鸟学Python11 小时前
Python生态在悄悄改变:FastAPI全面反超,Django和Flask还行吗?
开发语言·python·django·flask·fastapi
<-->11 小时前
Megatron(全称 Megatron-LM,由 NVIDIA 开发)和 DeepSpeed(由 Microsoft 开发)
人工智能·pytorch·python·深度学习·transformer