pytorch定义datase多次重复采样

有的时候训练需要对样本重复抽样为一个batch,可以按如下格式定义:

bash 复制代码
class TrainLoader(Dataset):
    def __init__(self, fns, repeat=1):
        super(TrainLoader, self).__init__()
        self.length = len(fns) # 数据数量
        self.repeat = repeat # 数据重复次数
    def __getitem__(self, idx):
        idx = idx % self.length 
    def __len__(self):
        return self.length * self.repeat           
相关推荐
Zzj_tju几秒前
视觉语言模型技术指南:图像是怎么“接入”语言模型的?视觉编码器、投影层与对齐机制详解
人工智能·语言模型·自然语言处理
Fullde福德负载箱厂家2 分钟前
负载箱的日常运维与故障处置:用户应知的设备保养与异常应对
人工智能·制造
.5485 分钟前
## Sorting(排序算法)
python·算法·排序算法
ydmy8 分钟前
注意力机制(个人理解)
pytorch·python·深度学习
jinanwuhuaguo8 分钟前
OpenClaw工程解剖——RAG、向量织构与“记忆宫殿”的索引拓扑学(第十三篇)
android·开发语言·人工智能·kotlin·拓扑学·openclaw
大龄程序员狗哥12 分钟前
第44篇:命名实体识别(NER)实战——从文本中提取关键信息(项目实战)
人工智能
lpfasd12320 分钟前
2026年第17周GitHub趋势周报:AI代理工程化与端侧智能加速落地
人工智能·github
nervermore99031 分钟前
2.人工智能学习-环境搭建
人工智能
Flying pigs~~41 分钟前
LoRA 面试完全指南:低秩分解原理 + Transformer 应用
人工智能·深度学习·lora·大模型·微调·transformer
大橙子打游戏1 小时前
薅满火山引擎每天数百万免费 Tokens:我写了一个自动轮换代理
人工智能