2月17日深度学习日记

.train().eval()

在训练深度学习模型时,.train().eval()(或 .train(False))是两个非常重要的方法,它们用于控制模型的行为,特别是在涉及如Dropout、Batch Normalization等层的时候。下面是对这两个方法的具体解释。

.train()

当你调用一个PyTorch模型的.train()方法时,你是在告诉这个模型现在处于训练模式。这意味着:

  • Dropout层:会按照设定的概率随机"丢弃"神经元(即设置为0),以防止过拟合。
  • Batch Normalization层:会使用每一批数据的均值和方差进行归一化,并且会更新运行统计量(running statistics),这些统计量会在推理(evaluation)阶段使用。

.eval()

相反,当你调用.eval()方法时,你是在告诉模型现在进入评估模式(也就是推理模式)。在这种模式下:

  • Dropout层:不再执行,所有的神经元都被保留下来,也就是说,任何应用了Dropout的地方都会被视为神经网络的一部分而不会被丢弃。
  • Batch Normalization层:将使用训练过程中积累的运行均值和方差来进行归一化,而不是当前批次的数据统计。

在深度学习训练过程中,epochbatch 是两个非常重要的概念,它们与模型的训练方式密切相关。理解这两个术语对于有效地训练和调试模型至关重要。


Epoch和Batch

Epoch(轮次)

  • 定义: 一个 epoch 指的是将整个训练数据集通过模型进行一次完整的前向传播和反向传播的过程。
  • 作用: 每完成一个 epoch,意味着模型已经"看过"了训练集中的每一个样本至少一次。随着 epoch 数量的增加,模型有机会从数据中学习到更多的模式,但也有可能开始过拟合(即对训练数据的记忆超过了一般化的学习)。
  • 实践中的应用: 在实际操作中,你通常不会只训练一个 epoch,而是会设置多个 epoch(例如100个或更多),以便让模型有足够的时间来学习数据中的复杂模式。每个 epoch 结束后,可以评估模型在验证集上的性能,并根据需要调整超参数或采取其他措施以改进模型。

Batch(批次)

  • 定义: 由于内存限制,我们通常不能一次性将整个数据集加载到内存中进行训练。因此,我们将整个数据集划分为若干个小部分,这些小部分被称为 batches(批次)。每次迭代时,模型仅使用一个 batch 的数据进行更新。
  • 大小: Batch size(批次大小)是指每个 batch 中包含的数据样本数量。例如,如果 batch size 设置为32,则每次迭代时模型都会用32个样本进行训练。
  • 作用: 使用 mini-batch(小批量)梯度下降而不是全量梯度下降的好处在于它可以提供更稳定和更快的收敛速度。此外,mini-batch 还有助于打破数据的对称性,从而帮助模型更好地泛化。
  • 实践中的应用: 选择合适的 batch size 对于模型的训练效率和最终性能都非常重要。较小的 batch size 可能会导致训练过程更加不稳定,但可能会找到更好的局部最优解;较大的 batch size 则可能加速训练过程,但由于每次更新所依据的信息较少,可能导致泛化能力下降。

Epoch 和 Batch 的关系

在一个 epoch 内,模型会对整个数据集的所有 batches 进行遍历并更新权重。例如,如果你有一个包含1000个样本的数据集,并且 batch size 设置为100,则每个 epoch 将包含10次迭代(因为 1000/100=101000/100=10)。在每个 iteration(迭代)中,模型使用当前 batch 的数据进行前向传播、计算损失、反向传播以及权重更新。

示例

假设你正在训练一个图像分类模型,你的数据集包含3000张图片,batch size 设置为64,计划训练50个 epoch:

  • Batch: 每次迭代中,模型只会看到64张图片,然后基于这64张图片的误差来调整权重。
  • Epoch: 完成所有3000张图片的一次遍历(即进行了 ⌈3000/64⌉=47⌈3000/64⌉=47 次迭代)称为一个 epoch。
  • 总迭代次数: 在整个训练过程中,你会进行 50×47=235050×47=2350 次迭代。

通过这种方式,模型能够逐步改进其预测准确性,同时保持训练过程的高效性和稳定性。正确地设置 epoch 数量和 batch size 对于获得良好的训练效果至关重要。


tqdm

tqdm 是一个用于 Python 的快速、可扩展的进度条库,它使得在循环中添加进度指示变得非常简单。在深度学习领域,特别是在长时间运行的任务如模型训练或数据处理过程中,使用 tqdm 可以显著提升用户体验,因为它能够实时显示任务的进展状态。

基本概念

  • 进度条tqdm 提供了一个直观的进度条,可以显示当前完成的工作量占总工作量的比例。
  • 估计剩余时间 :除了进度百分比外,tqdm 还能估算出剩余时间(ETA, Estimated Time of Arrival),这对于了解任务何时完成非常有帮助。
  • 动态更新tqdm 的进度条是动态更新的,这意味着它可以随着循环的进行实时刷新,而不需要手动刷新屏幕。

在深度学习中的应用

在深度学习中,tqdm 通常被用来包装数据加载器(如 PyTorch 的 DataLoader)或任何其他形式的迭代过程,以便于监控训练或评估过程的进展。以下是一些具体的使用场景:

  1. 训练模型时监控每个epoch的进展

    • 当你有一个大型的数据集,并且每次训练都需要遍历整个数据集多次(即多个 epoch),使用 tqdm 可以让你知道每个 epoch 中的进度情况。
  2. 评估模型性能时监控每个batch的进展

    • 类似地,在验证或测试阶段,使用 tqdm 包装数据加载器可以帮助你了解整个评估过程的进展情况。
  3. 数据预处理

    • 在大规模数据集上进行预处理操作时(如图像增强、特征提取等),tqdm 能够提供可视化的进度反馈,帮助用户了解预处理工作的完成程度。

使用示例

62%|████████████████████████████▏                | 5/8 [00:16<00:09,  3.31s/it]
75%|█████████████████████████████████▊           | 6/8 [00:19<00:06,  3.31s/it]
88%|███████████████████████████████████████▍     | 7/8 [00:23<00:03,  3.31s/it]
  • 百分比 :如 62%, 75%, 和 88% 表示已完成的工作量占总工作量的比例。
  • 进度条 :由不同数量的填充字符(如 )和未填充字符组成,直观地展示完成进度。
  • 已完成与总数 :如 5/8, 6/8, 和 7/8 分别表示当前已完成的迭代次数和总的迭代次数。
  • 时间信息
    • [00:16<00:09] 表示已经用时 16 秒,预计剩余时间为 9 秒。
    • [00:19<00:06] 表示已经用时 19 秒,预计剩余时间为 6 秒。
    • [00:23<00:03] 表示已经用时 23 秒,预计剩余时间为 3 秒。
  • 每项所需时间 :如 3.31s/it 表示平均每次迭代大约需要 3.31 秒。

enumerate

enumerate 是 Python 中非常强大且常用的内置函数,它允许你在遍历一个可迭代对象时同时获取元素的索引和值。这对于需要知道当前处理的是序列中的哪个元素的情况特别有用。下面将深入介绍 enumerate 的使用方法、常见场景以及一些高级用法。

基础用法

语法
for index, value in enumerate(iterable, start=0):
    # 使用 index 和 value 进行操作
  • iterable:任何可以迭代的对象(如列表、元组、字符串等)。
  • start:可选参数,指定索引的起始值,默认为 0。
示例

遍历一个列表并打印每个元素及其索引:

fruits = ['apple', 'banana', 'cherry']
for index, fruit in enumerate(fruits):
    print(index, fruit)

输出:

0 apple
1 banana
2 cherry
注意
enumerate(tqdm(train_loader))

当你看到 enumerate(tqdm(train_loader)) 这样的写法时,实际上是在利用 tqdm 库为迭代过程添加一个进度条,同时通过 enumerate 获取每个批次的索引和数据。这里的关键在于理解**tqdm 包装后的对象仍然是一个可迭代对象**,这意味着它可以像普通的可迭代对象一样被遍历。


assert

assert 是 Python 中的一个关键字,用于在代码中插入断言(assertion)。断言语句用于测试程序中的某些条件是否为真。如果条件为假(即条件表达式的值为 False),则会触发一个 AssertionError 异常,并可选地显示一条错误消息。这有助于开发者快速发现和定位代码中的逻辑错误或不正确的假设。

基本语法

assert condition, "Optional error message"
  • condition :这是一个必须为真的表达式。如果该表达式的结果为 False,则会抛出 AssertionError
  • "Optional error message":这是一个可选的字符串参数,用来提供当断言失败时更详细的错误信息。

使用示例

x = 5
assert x > 0, "x should be positive"

在这个例子中,因为 x 的值是 5,大于 0,所以这个断言不会引发异常。如果将 x 改为 -1,则断言会失败并抛出 AssertionError,并附带提供的错误消息 "x should be positive"


BlipImageProcessor

BlipImageProcessor 是 Hugging Face Transformers 库中用于处理图像数据的一个特定处理器,特别是为 BLIP(Bootstrapped Language-Image Pretraining)模型设计的。它负责将原始图像数据转换成模型可以接受的格式,包括调整大小、归一化等预处理步骤,并最终将这些数据转换为张量。

参数解释

在你的例子中:

img_processor = BlipImageProcessor(**processor_cfg)
  • BlipImageProcessor :这是专门用于 BLIP 模型的图像处理器类。它继承自 ImageProcessingMixinPreTrainedImageProcessor,提供了必要的工具来预处理图像输入,使其适合于 BLIP 模型。

  • **processor_cfg :这里的 processor_cfg 是一个字典,包含了传递给 BlipImageProcessor 的参数。使用双星号 (**) 表示将字典解包为关键字参数传递给构造函数。这意味着 processor_cfg 中的键值对会被作为单独的关键字参数传入 BlipImageProcessor

常见配置参数

根据 BlipImageProcessor 的文档,常见的配置参数可能包括但不限于以下几种:

  • image_mean :用于图像标准化的均值向量。默认情况下,对于RGB图像,这可能是 [0.485, 0.456, 0.406]
  • image_std :用于图像标准化的标准差向量。默认情况下,对于RGB图像,这可能是 [0.229, 0.224, 0.225]
  • size :指定调整图像大小的目标尺寸。例如,{"height": 224, "width": 224}
  • do_resize:布尔值,指示是否应该调整图像大小。
  • do_normalize:布尔值,指示是否应该对图像进行标准化处理。
  • do_center_crop:布尔值,指示是否应该执行中心裁剪。
  • crop_size:如果启用了中心裁剪,则指定裁剪后的尺寸。
示例

假设你有一个配置字典 processor_cfg,你可以像下面这样初始化 BlipImageProcessor

from transformers import BlipImageProcessor

# 配置字典
processor_cfg = {
    "image_mean": [0.5, 0.5, 0.5],
    "image_std": [0.5, 0.5, 0.5],
    "size": {"height": 384, "width": 384},
    "do_resize": True,
    "do_normalize": True,
}

# 初始化图像处理器
img_processor = BlipImageProcessor(**processor_cfg)

# 加载一张图片
from PIL import Image
image = Image.open("path_to_your_image.jpg")

# 使用处理器处理图片
processed_image = img_processor(images=image, return_tensors="pt")
print(processed_image)

处理过程

当你调用 img_processor(images=image, return_tensors="pt") 时:

  1. 调整大小 :如果 do_resize=True,则会按照 size 中指定的高度和宽度调整图像大小。
  2. 归一化 :如果 do_normalize=True,则会对图像像素值进行标准化处理,通常通过减去 image_mean 并除以 image_std 来实现。
  3. 返回张量 :最终结果会被转换为 PyTorch 张量(因为指定了 return_tensors="pt"),以便可以直接输入到模型中。

总结

img_processor = BlipImageProcessor(**processor_cfg) 这行代码创建了一个 BLIP 模型专用的图像处理器实例,其中 processor_cfg 包含了所有需要的配置参数。这个处理器可以用来对图像数据进行预处理,确保它们符合模型的输入要求,从而提高模型性能和准确性。通过这种方式,你可以轻松地准备图像数据以供训练或推理使用。


torch.no_grad()

with torch.no_grad():
  • 作用torch.no_grad() 是一个上下文管理器,用于禁用梯度计算。当你不需要进行反向传播(即不需要计算梯度)时,使用这个上下文可以减少内存消耗并加速前向传播。
  • 适用场景
    • 在验证阶段或测试阶段,你通常不需要更新模型权重,因此不需要计算梯度。
    • 进行推理(inference)时,禁用梯度计算可以节省资源。

torch.nn.ModuleDict

probe = torch.nn.ModuleDict({"QP": probe_qp, "PAWP": probe_pawp, "PVR": probe_pvr}) 这行代码创建了一个 torch.nn.ModuleDict 对象,它是一个特殊的字典容器,用于保存子模块。在 PyTorch 中,使用 ModuleDict 可以方便地管理和访问多个神经网络模块(如不同的子网络或层),并且这些模块会被正确地注册到主模型中,这意味着它们的参数会在调用 .parameters() 方法时被包含在内,从而可以参与到模型的训练过程中。

详细解释

  • torch.nn.ModuleDict :
    • 它允许你以键值对的形式存储多个 nn.Module 子模块。
    • 键(key)是字符串类型的名字,值(value)是对应的 nn.Module 子模块。
    • 这对于需要根据名称动态选择模块或者当你有多个独立但相关的模块需要管理时特别有用。

在这个例子中:

probe_qp = Probe(1408, 1).to("cuda")
probe_pawp = Probe(1408, 1).to("cuda")
probe_pvr = Probe(1408, 1).to("cuda")
probe = torch.nn.ModuleDict({
    "QP": probe_qp,
    "PAWP": probe_pawp,
    "PVR": probe_pvr
})
  • probe_qp, probe_pawp, probe_pvr : 分别是针对不同输出任务(QP、PAWP、PVR)定义的 Probe 模型实例。每个实例都接收一个大小为1408的输入特征向量,并输出一个标量。
  • probe : 是一个 ModuleDict,它将上述三个 Probe 实例按照其对应的任务名("QP", "PAWP", "PVR")作为键进行组织。
相关推荐
青松@FasterAI2 分钟前
【Arxiv 大模型最新进展】PEAR: 零额外推理开销,提升RAG性能!(★AI最前线★)
人工智能
huoyingcg9 分钟前
武汉火影数字|VR沉浸式空间制作 VR大空间打造
人工智能·科技·vr·虚拟现实·增强现实
冷冷清清中的风风火火24 分钟前
本地部署DeepSeek的硬件配置建议
人工智能·ai
sauTCc32 分钟前
RAG实现大致流程
人工智能·知识图谱
lqqjuly1 小时前
人工智能驱动的自动驾驶:技术解析与发展趋势
人工智能·机器学习·自动驾驶
山东布谷科技官方1 小时前
AI大模型发展对语音直播交友系统源码开发搭建的影响
人工智能·实时音视频·交友
thinkMoreAndDoMore1 小时前
深度学习(2)-深度学习关键网络架构
人工智能·深度学习·机器学习
山海青风1 小时前
从零开始玩转TensorFlow:小明的机器学习故事 1
人工智能·机器学习·tensorflow
圣心2 小时前
Ollama 快速入门
开发语言·javascript·人工智能
小屁孩大帅-杨一凡2 小时前
如何实现使用DeepSeek的CV模型对管道内模糊、低光照或水渍干扰的图像进行去噪、超分辨率重建。...
图像处理·人工智能·opencv·计算机视觉·超分辨率重建