TDA4 数据预处理相对 TDA2 的主要升级(带来的好处):
- 更强的图像增广与多样化:在 tda4/SegmentationDataset.py 集成了更丰富的 transform(色彩抖动、随机模糊/噪声、几何扰动、随机裁剪/缩放/翻转、长边可变缩放、混合 Cityscapes/BDD 等场景),相比 TDA2 仅有裁剪+随机尺度+旋转+翻转+轻量模糊,能显著提升泛化与鲁棒性。
- 尺寸可整除/对齐策略:使用 make_divisible、自适应 pad/resize,确保输入尺寸适配下游模型(YOLO/Seg 分支要求的 stride),减少因不整除导致的形状错误或额外插值损失。
- 失败重试与路径鲁棒性:TDA4 数据读取对缺失/坏图、路径异常有检查与回退(SemData/加载逻辑里有文件存在性检查、必要时重试),降低训练中断风险;TDA2 读取缺文件/空图会直接抛错或读 None。
- 双任务独立管线:RM/FSD 分别构建 dataset/dataloader,可独立配置采样和增广,再在训练时拼接前向,避免两任务互相拖累采样分布;TDA2 单一 loader 把两路数据绑死在同一节奏上,难以调控比例。
- 与高效 DataLoader 配合:TDA4 上层用自适应 num_workers、pin_memory=True、InfiniteDataLoader 复用 worker,减少 IO 阻塞与每轮重启开销,预处理后的数据更快送达 GPU;TDA2 标准 DataLoader 每个 epoch 重启 worker,IO/CPU 开销更大。
TDA2 旧预处理的不足:
- 增广单一,主要是裁剪+随机尺度/旋转+翻转/模糊,难以覆盖更多真实分布扰动,泛化有限。
- 输入尺寸固定裁剪,缺少对 stride 对齐/可整除的自适应,易产生额外插值或形状不匹配问题。
- 对坏样本/缺文件缺少保护,读取失败易直接中断训练。
- 双任务绑在同一 loader,无法独立调节 RM/FSD 数据配比与增广策略,容易出现一方过拟合/另一方欠拟合的情况。
- DataLoader 不复用 worker,epoch 间开销大,CPU 侧可能成为瓶颈。
tda2的数据加载方式和tda4的相比,tda4的数据加载方式有哪些升级?带来了什么好处,tda2原来的数据加载方式有哪些坏处
TDA4 相比 TDA2 的数据加载升级与收益:
- 自适应 worker 数与持续复用:TDA4 在 utils/datasets.py#create_dataloader 动态选择 num_workers,并用 InfiniteDataLoader + _RepeatSampler 让 worker 常驻、不随 epoch 重启,减少进程/线程反复创建的开销;TDA2 用标准 DataLoader,每轮重启 worker,CPU/IO 开销更大。
- pin_memory + 预取更平滑:TDA4 默认 pin_memory=True、循环预取,GPU 等待数据的空转时间更少;TDA2 也开了 pin_memory,但没有 worker 复用,预取阶段容易出现冷启动阻塞。
- 分布式友好:TDA4 在 create_dataloader 内置 DDP 的 DistributedSampler 与 torch_distributed_zero_first 缓存同步,确保多进程时数据切分与缓存一致;TDA2 仅在构建时简单加 DistributedSampler,无缓存/预热协作,DDP 下初次加载成本更高。
- 任务分离的 loader:TDA4 为 RM/FSD 分别创建 dataloader,训练时按批拼接前向,便于独立调节各任务数据分布与增广;TDA2 单一 loader 绑死两路数据,无法灵活控制比例与采样节奏。
- 采样策略弹性:TDA4 支持 rect/quad、class weight/weighted sampler(代码中预留),可更容易做类平衡或长宽比适配;TDA2 无这些选项。
- IO 异常处理更稳健:TDA4 的数据管线(含 dataset)对缺图、坏图有检查/回退逻辑,降低训练中断风险;TDA2 对文件缺失/读空图不够健壮。
TDA2 旧方式的主要不足:
- 每个 epoch 重启 worker,CPU/IO 开销大,训练初期容易出现 GPU 等数据。
- 单一 loader 绑定多任务,无法独立控制任务数据比例与采样策略。
- DDP 缺少缓存/预热同步,首轮加载慢,且潜在不一致风险。
- 缺少长宽比/加权采样选项,对类不平衡或多尺度场景不友好。
- 对异常样本容错较弱,训练易被坏图/缺文件打断。