12.4深度学习_模型优化和迁移_awanb、tb

一、数据获取方法

1. 开源数据集

​ 免费,成本低

  1. PyTorch: https://pytorch.org/vision/stable/datasets.html

  2. 开源数据集imagenet:https://image-net.org/

  3. Hugging Face数据集:https://huggingface.co/datasets

  4. kaggle数据集下载网址:https://www.kaggle.com/datasets

  5. 各种网站:

    https://public.roboflow.com/

    https://zhuanlan.zhihu.com/p/648720525

    https://www.cvmart.net/dataSets

2. 外包平台

效果好,成本高

外包平台(Amazon Mechanical Turk,阿里众包,百度数据众包,京东微工等)

3.自己采集和标注

质量高、效率低、成本高。

labelimg、labelme工具的使用。

4. 通过网络爬虫获取

爬虫工具

二、数据本地化

​ 使用公开数据集时,会自动保存到本地。如果已下载,就不会重复下载。如果需要以图片的形式保存到本地以方便观察和重新处理,可以按照如下方式处理。

1. 图片本地化

使用一下代码保存图片到本地

python 复制代码
dir = os.path.dirname(__file__)
def save2local():
    trainimgsdir = os.path.join(dir, "MNIST/trainimgs")
    testimgsdir = os.path.join(dir, "MNIST/testimgs")
    if not os.path.exists(trainimgsdir):
        os.makedirs(trainimgsdir)
    if not os.path.exists(testimgsdir):
        os.makedirs(testimgsdir)

    trainset = torchvision.datasets.MNIST(
        root=datapath,
        train=True,
        download=True,
        transform=transforms.Compose([transforms.ToTensor()]),
    )
    for idx, (img, label) in enumerate(trainset):
        labdir = os.path.join(trainimgsdir, str(label))
        os.makedirs(labdir, exist_ok=True)
        pilimg = transforms.ToPILImage()(img)
        # 保存成单通道的灰度图
        pilimg = pilimg.convert("L")
        pilimg.save(os.path.join(labdir, f"{idx}.png"))

    # 加载测试集
    testset = torchvision.datasets.MNIST(
        root=datapath,
        train=False,
        download=True,
        transform=transforms.Compose([transforms.ToTensor()]),
    )
    for idx, (img, label) in enumerate(testset):
        labdir = os.path.join(testimgsdir, str(label))
        os.makedirs(labdir, exist_ok=True)
        pilimg = transforms.ToPILImage()(img)
        # 保存成单通道的灰度图
        pilimg = pilimg.convert("L")
        pilimg.save(os.path.join(labdir, f"{idx}.png"))

    print("所有图片保存成功~~")

2. 加载图片数据集

直接下载的图片文件目录也可以直接使用

python 复制代码
trainpath = os.path.join(dir, "MNIST/trainimgs")
trainset = torchvision.datasets.ImageFolder(root=trainpath, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=32, shuffle=True)

3. 本地图片序列化

把本地图片存储为 pickle序列化格式 ,然后通过 tar格式的形式分发。

python 复制代码
#自己写代码:找个学生来讲一下

++今天自己把本地的图片进行一个序列化处理。++

三、过拟合处理

1. 数据增强

可以使用transform完成对图像的数据增强,防止过拟合发生

https://pytorch.org/vision/stable/transforms.html

1.1 数据增强的方法

  1. 随机旋转

  2. 镜像

  3. 缩放

  4. 图像模糊

  5. 裁剪

  6. 翻转

  7. 饱和度、亮度、灰度、色相

  8. 噪声、锐化、颜色反转

  9. 多样本增强

    SamplePairing操作:随机选择两张图片分别经过基础数据增强操作处理后,叠加合成一个新的样本,标签为原样本标签中的一种。

    ①、多样本线性插值:Mixup 标签更平滑

    ②、直接复制:CutMix, Cutout,直接复制粘贴样本

    ③、Mosic:四张图片合并到一起进行训练

1.2 数据增强的好处

​ 查出更多训练数据:大幅度降低数据采集和标注成本;

​ 提升泛化能力:模型过拟合风险降低,提高模型泛化能力

2. 标准化

3. DROP-OUT

处理过拟合问题的

4. 欠拟合注意事项

欠拟合: 如果模型在训练集和验证集上表现都不够好,考虑增加模型的层级或训练更多的周期。

四、训练过程可视化

1. wandb.ai

可在控制台看到训练进度。

官方文档有清晰简单的代码及思路,直接使用即可:https://wandb.ai/

1.1 安装

python 复制代码
pip install wandb

1.2 登录

python 复制代码
wandb login

复制平台提供的 API key粘贴回车即可(粘贴之后看不到的)。

1.3 初始化配置

python 复制代码
import random

# start a new wandb run to track this script
wandb.init(
    # set the wandb project where this run will be logged
    project="my-awesome-project",

    # track hyperparameters and run metadata
    config={
    "learning_rate": 0.02,
    "architecture": "CNN",
    "dataset": "CIFAR-100",
    "epochs": 10,
    }
)

1.4 写入训练日志

python 复制代码
# log metrics to wandb
wandb.log({"acc": correct / samp_num, "loss": total_loss / samp_num})        

1.5 添加模型记录

python 复制代码
# 添加wandb的模型记录
wandb.watch(model, log="all", log_graph=True)

1.6 完成

python 复制代码
# [optional] finish the wandb run, necessary in notebooks
wandb.finish()

1.7 查看

根据控制台提供的访问地址去查看训练过程数据即可。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

数据简单说明:

  1. Process GPU Power Usage (W): GPU功率使用情况,以瓦特(W)为单位。
  2. Process GPU Power Usage (%): GPU功率使用占GPU总功率的百分比。
  3. Process GPU Memory Allocated (bytes): 分配给训练过程的GPU内存量,以字节为单位。
  4. Process GPU Memory Allocated (%): 分配给训练过程的GPU内存占GPU总内存的百分比。
  5. Process GPU Time Spent Accessing Memory (%): 训练过程中访问GPU内存的时间百分比。
  6. Process GPU Temp (°C): GPU温度,以摄氏度(°C)为单位。

2. Tensor Board

官方推荐的学习文档:

https://pytorch.org/tutorials/intermediate/tensorboard_tutorial.html

2.1 准备工作

导入tensorboard操作模块

python 复制代码
from torch.utils.tensorboard import SummaryWriter

指定tensorboard日志保存路径:可以指定多个实例对象

python 复制代码
dir = os.path.dirname(__file__)
tbpath = os.path.join(dir, "tensorboard")
# 指定tensorboard日志保存路径
writer = SummaryWriter(log_dir=tbpath)

2.2 保存训练过程曲线

记录训练数据

python 复制代码
# 记录训练数据到可视化面板
writer.add_scalar("Loss/train", loss, epoch)
writer.add_scalar("Accuracy/train", acc, epoch)

训练完后记得关闭

python 复制代码
writer.close()

2.3 曲线查看

安装:安装的是执行指令,是一个本地化的服务器

python 复制代码
pip install tensorboard

在训练完成后,查看训练结果,在当前目录下,打开控制台窗口:

python 复制代码
tensorboard --logdir .

控制台会提示一个访问地址,用浏览器直接访问即可。

http://localhost:6006/

2.4 保存网络结构

保存网络结构到tensorboard

python 复制代码
# 保存模型结构到tensorboard
writer.add_graph(net, input_to_model=torch.randn(1, 1, 28, 28))
writer.close()

启动tensorboard,在graphs菜单即可看到模型结构

2.5 模型参数可视化

python 复制代码
# 获取模型参数并循环记录
params = net.named_parameters()
for name, param in params:
	writer.add_histogram(f"{name}_{i}", param.clone().cpu().data.numpy(), epoch)

2.6 记录训练数据

tensorboard中的add_image函数用于将图像数据记录到TensorBoard,以便可视化和分析。这对于查看训练过程中生成的图像、调试和理解模型的行为非常有用,如帮助检查预处理是否生效。

python 复制代码
#查看预处理的旋转是否生效
for i, data in enumerate(trainloader, 0):
    inputs, labels = data
    if i % 100 == 0:
        img_grid = torchvision.utils.make_grid(inputs)
        writer.add_image(f"r_m_{epoch}_{i * 100}", img_grid, epoch * len(trainloader) + i)
相关推荐
liruiqiang054 分钟前
机器学习 - 衡量模型的特性
人工智能·机器学习
日记成书13 分钟前
详细介绍嵌入式硬件设计
嵌入式硬件·深度学习·学习
thinkMoreAndDoMore14 分钟前
深度学习(3)-TensorFlow入门(梯度带)
人工智能·深度学习·tensorflow
Dream251220 分钟前
【Transformer架构】
人工智能·深度学习·transformer
黎智程21 分钟前
AI助力小微企业技术开发规范化管理 | 杂谈
人工智能
web1508541593544 分钟前
超级详细Spring AI运用Ollama大模型
人工智能·windows·spring
啊哈哈哈哈哈啊哈哈1 小时前
J4打卡—— ResNet 和 DenseNet结合实现鸟类分类
人工智能·pytorch·分类
alden_ygq1 小时前
Ollama API 交互
人工智能·交互
小刘私坊1 小时前
机器梦境:AI如何在创意的狂野边疆上重塑艺术
人工智能
香橙薄荷心1 小时前
人工智能之自动驾驶技术体系
人工智能·机器学习·自动驾驶