深度学习04 数据增强、调整学习率

目录

数据增强

常用的数据增强方法

调整学习率

学习率

调整学习率

调整学习率的方法

有序调整

等间隔调整

多间隔调整

指数衰减

余弦退火

自适应调整

自定义调整

数据增强

数据增强是通过对训练数据进行各种变换(如旋转、翻转、裁剪等),生成新的训练样本,从而增加数据的多样性。它的主要目的是:

  • 提高模型的泛化能力。

  • 防止过拟合。

  • 在数据量不足的情况下,有效扩展数据集。

常用的数据增强方法

  1. 随机翻转(Random Flip)

    水平翻转:RandomHorizontalFlip 垂直翻转:RandomVerticalFlip

  2. 随机旋转(Random Rotation)

    随机旋转一定角度,例如 RandomRotation(30) 表示在 [-30°, 30°] 范围内随机旋转。

  3. 随机裁剪(Random Crop)

    随机裁剪图像的一部分,例如 RandomResizedCrop(256) 表示随机裁剪并调整大小为 256x256。

  4. 颜色变换(Color Jitter)

    随机调整亮度、对比度、饱和度和色调,例如 ColorJitter(brightness=0.4, contrast=0.4, saturation=0.4, hue=0.1)

  5. 高斯噪声(Gaussian Noise)

    为图像添加随机噪声。

  6. 归一化(Normalization)

    将图像像素值归一化到特定范围,例如 Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])

例如:定义训练集和验证集的图像的数据增强模型

python 复制代码
data_transforms = {'train':   
                transforms.Compose([  # transforms.Compose用于将多个图像预处理操作整合在一起
                transforms.Resize([300,300]),   # 使图像变换大小
                transforms.RandomRotation(45),   # 随机旋转,-42到45度之间随机选
                transforms.CenterCrop(256),    # 从中心开始裁剪[256.256]
                transforms.RandomHorizontalFlip(p=0.5),  # 随机水平旋转,随机概率为0.5
                transforms.RandomVerticalFlip(p=0.5),  # 随机垂直旋转,随机概率0.5
               transforms.ColorJitter(brightness=0.2,contrast=0.1,saturation=0.1,hue=0.1),   # 随机改变图像参数,参数分别表示 亮度、对比度、饱和度、色温
                transforms.RandomGrayscale(p=0.1),  # 概率转换成灰度率,3通道就是R=G=B
                transforms.ToTensor(),   # 将PIL图像或NumPy ndarray转换为tensor类型,并将像素值的范围从[0, 255]缩放到[0.0, 1.0],默认把通道维度放在前面
                transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])  # 给定均值和标准差对图像进行标准化,前者为均值,后者为标准差,三个值表示三通道图像
 
                ]),
                'valid':  # 验证集
                    transforms.Compose([   # 整合图像处理的操作
                    transforms.Resize([256,256]),   # 缩放图像尺寸
                    transforms.ToTensor(),   # 转换为torch类型
                    transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])    # 标准化
                ])
} 

嵌套定义好的数据增强模型

python 复制代码
training_data=food_dataset(file_path=r'./train.txt',transform=data_transform['train'])
test_data=food_dataset(file_path=r'./test.txt',transform=data_transform['valid'])

调整学习率

学习率

  • 定义

    学习率是优化算法(如 SGD、Adam)中的一个超参数,控制模型参数的更新步长。

  • 作用

    • 如果学习率太大,可能导致参数更新过快,无法收敛甚至发散。

    • 如果学习率太小,训练速度会变慢,可能陷入局部最优。

  • 重要性:合适的学习率是模型训练成功的关键。

调整学习率

学习率调整(Learning Rate Scheduling) 是优化模型训练的关键技术之一。深度学习中的学习率决定了模型参数在每次更新时的步长大小,合适的学习率可以加速收敛并提高模型的性能。常用的学习率有0.1、0.01以及0.001等,学习率越大则权重更新越快。一般来说,我们希望在训练初期学习率大一些,使得网络收敛迅速,在训练后期学习率小一些,使得网络更好的收敛到最优解。

目的

调整学习率的目的是为了能够更好地优化模型,避免训练过程中出现的一些问题,如梯度爆炸或梯度消失、训练过程陷入局部极小值等

调整学习率的方法

不同方法调整学习率所对应的横轴epoch值与纵轴学习率的关系如图

PyTorch 提供了多种学习率调度器,位于 torch.optim.lr_scheduler 模块中。

有序调整
等间隔调整
多间隔调整
指数衰减
余弦退火
自适应调整
自定义调整
相关推荐
调皮的芋头22 分钟前
iOS各个证书生成细节
人工智能·ios·app·aigc
饮长安千年月1 小时前
Linksys WRT54G路由器溢出漏洞分析–运行环境修复
网络·物联网·学习·安全·机器学习
红花与香菇2____1 小时前
【学习笔记】Cadence电子设计全流程(二)原理图库的创建与设计(上)
笔记·嵌入式硬件·学习·pcb设计·cadence·pcb工艺
flying robot2 小时前
人工智能基础之数学基础:01高等数学基础
人工智能·机器学习
Moutai码农3 小时前
机器学习-生命周期
人工智能·python·机器学习·数据挖掘
188_djh3 小时前
# 10分钟了解DeepSeek,保姆级部署DeepSeek到WPS,实现AI赋能
人工智能·大语言模型·wps·ai技术·ai应用·deepseek·ai知识
Jackilina_Stone3 小时前
【DL】浅谈深度学习中的知识蒸馏 | 输出层知识蒸馏
人工智能·深度学习·机器学习·蒸馏
bug404_3 小时前
分布式大语言模型服务引擎vLLM论文解读
人工智能·分布式·语言模型
一天八小时4 小时前
Docker学习进阶
学习·docker·容器
前端没钱4 小时前
前端需要学习 Docker 吗?
前端·学习·docker