【深度学习】(6)--图像数据增强

文章目录

图像数据增强

数据增强(Data Augmentation),也称为数据增广,是一种在机器学习和深度学习中常用的技术,它通过对现有数据进行各种变换和处理来生成新的训练样本,从而增加数据集的多样性和数量。这种方法在解决数据稀缺、提高模型泛化能力和鲁棒性方面具有重要意义。

一、作用

缓解了深度学习中数据不足的场景,在图像领域首先得到广泛使用,进而延伸到 NLP 领域,并在许多任务上取得效果。一个主要的方向是增加训练数据的多样性,从而提高模型泛化能力。

二、增强方法

图像数据增强:

  • 几何变换:如翻转、旋转、缩放、平移、裁剪等,改变图像的空间位置或尺寸。
  • 颜色变换:调整图像的亮度、对比度、饱和度等颜色属性。
  • 噪声添加:在图像中添加随机噪声,如高斯噪声、椒盐噪声等。
  • 模糊处理:使用高斯模糊、运动模糊等模糊技术处理图像。
  • 仿射变换:进行更复杂的图像变换,如透视变换等。

三、代码体现

方法

python 复制代码
-- RandomRotation() --> 随机旋转
-- CenterCrop() --> 中心剪裁
-- RandomHorizontalFlip() --> 随机水平旋转
-- RandomVerticalFlip() --> 随机垂直旋转
-- ColorJitter() --> 颜色变换
-- RandomGrayscale() --> 转化为灰度图
-- Normalize() --> 标准化
python 复制代码
from torchvision import transforms
"""-----创建数据集的类---数据增强-----"""
data_transforms = {
    'train':
        transforms.Compose([
            transforms.Resize([300,300]),
            transforms.RandomRotation(45), # 随机旋转,-45到45度之间随便选
            transforms.CenterCrop(216), # 从中心开始剪裁
            transforms.RandomHorizontalFlip(p=0.5),# 随机水平反转,设定一个概率
            transforms.RandomVerticalFlip(p=0.5),# 随机垂直反转
            transforms.ColorJitter(brightness=0.2,contrast=0.1,saturation=0.1,hue=0.1),# 参数1亮度,参数2对比度,参数3饱和度,参数4色相
            transforms.RandomGrayscale(p=0.1),# 转化为灰度图
            transforms.ToTensor(),
            transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225]) # 标准化:均值,标准差(统一的)
        ]),
    'valid':
        transforms.Compose([
            transforms.Resize([216,216]),
            transforms.ToTensor(),
            transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])
        ]),
}

上述代码中,完全体现了当有图像传入之后,图像会进行的变化。

四、增强体现

从上述代码中,我们也能发现,上述的操作只是将传入的图像进行调整变换并没有增加训练集呀?不像是在机器学习时进行的过采样拟合数据,直观的看到100条数据拟合成了1000条数据,数据明显增多了。这里的数据增强仅仅只是将传入的图像进行调整变换,训练的数据集数量并没有动,那它是怎么将上述代码的作用体现出来从而实现数据增强的呢?

重点环节就在epochs循环中:

python 复制代码
epochs = 50
for t in range(epochs):
    print(f"Epoch {t+1} \n-------------------------")
    train(train_dataloader,model,loss_fn,optimizer)
print("Done!")

我们在进行epochs循环时,每次都需要调用train_dataloader,我们再看看train_dataloader数据加载器是什么:

python 复制代码
train_dataloader = DataLoader(training_data,batch_size=64,shuffle=True)

我们又发现了,train数据加载器是对training_data训练集数据的处理,那我们再看看训练集数据是什么:

python 复制代码
training_data = food_dataset(file_path='train_labels.txt',transform=data_transforms['train'])

在这里!!我们发现transform预处理参数设置的是数据增强的代码,所以意味着,每次循环时,原始数据集都会进入到transform操作中进行变换,每次变换都是随机的,也就意味着每次循环训练时都会有大量不同的数据进行训练,从而使得神经网络训练了大量的数据集。

总结

本篇介绍了:

  1. 数据增强的方法。
  2. 数据增强是如何体现的。

注意:数据增强与过采样直接拟合大量数据不同,数据增强体现在每次循环训练数据前,都给数据进行一次随机变换,使得每次训练的数据都不一样,从而实现训练大量的数据。

相关推荐
淘晶驰AK9 分钟前
嵌入式算吃青春饭么?
人工智能
打码人的日常分享23 分钟前
【软件建设方案】设备管理系统建设方案(Doc原件参考)
大数据·人工智能·系统安全·需求分析·设计规范
新智元39 分钟前
突破数据墙!27 岁华裔 MIT 辍学创业 8 年,年化收入逼近 10 亿
前端·人工智能
AI大模型_学习君44 分钟前
什么是 GPT?通过图形化的方式来理解 Transformer 架构
人工智能·gpt·深度学习·自然语言处理·大模型·llm·transformer
AiBoxss1 小时前
阿里通义千问开源Qwen2.5系列模型:Qwen2-VL-72B媲美GPT-4
人工智能
水木流年追梦1 小时前
【shell脚本5】Shell脚本学习--条件控制
人工智能·python·深度学习·学习·算法·机器学习
jndingxin2 小时前
OpenCV特征检测(7)角点检测函数goodFeaturesToTrack()的使用
人工智能·opencv·计算机视觉
bryant_meng2 小时前
【BoF】《Bag of Freebies for Training Object Detection Neural Networks》
人工智能·目标检测·计算机视觉·bof
华为云PaaS服务小智2 小时前
华为云发布全栈可观测平台AOM,以AI赋能应用运维可观测
运维·人工智能·华为云