pytorch定义datase多次重复采样

有的时候训练需要对样本重复抽样为一个batch,可以按如下格式定义:

bash 复制代码
class TrainLoader(Dataset):
    def __init__(self, fns, repeat=1):
        super(TrainLoader, self).__init__()
        self.length = len(fns) # 数据数量
        self.repeat = repeat # 数据重复次数
    def __getitem__(self, idx):
        idx = idx % self.length 
    def __len__(self):
        return self.length * self.repeat           
相关推荐
hhcgchpspk7 小时前
网速上传下载流量监测工具尝试
网络·python·cmd·psutil
飞Link7 小时前
大模型时代的“语言编程”:Prompt Engineering (提示词工程) 深度解析与实战指南
开发语言·python·prompt
Kel8 小时前
Claude Code 架构深度剖析:从终端输入到大模型响应的完整过程
人工智能·设计模式·架构
郝学胜-神的一滴8 小时前
Socket实战:从单端聊天到多用户连接的实现秘籍
服务器·开发语言·python·网络协议·pycharm
zzwq.8 小时前
线程池与进程池:concurrent.futures高效并发
python
taWSw5OjU8 小时前
从模型评估、梯度难题到科学初始化:一步步解析深度学习的训练问题
人工智能·深度学习
刘佬GEO8 小时前
【无标题】
网络·人工智能·搜索引擎·ai·语言模型
用户2018792831678 小时前
/export之一个程序员与AI的“破案笔记”
人工智能
Ricardo-Yang8 小时前
SCNP语义分割边缘logits策略
数据结构·人工智能·python·深度学习·算法
新缸中之脑8 小时前
微调BERT进行命名实体识别
人工智能·深度学习·bert