为了生成想要的美女写真,我决定自己动手训练扩散模型

背景目标


平时都是在用 AI 工具生成美女写真,审美已经麻木疲劳了,翻来覆去就那么几样,所以我想下定决心自己亲手实现一次模型训练和生成过程,这样一旦我把整个工程的流程走通,我就可以按照自己的兴趣爱好,搜集相应的图片生成自己想要的内容了(嘻嘻懂得评论区打 666 ),所以才有了本文的内容。目标就是:

  • 实现扩散模型,并生成美女写真图片

前期准备


  • stable diffusion webui
  • tensorflow-gpu 2.10
  • anaconda 虚拟环境
  • python 3.10
  • 显卡 4090

数据生成


我手头没有那么多美女图片,怎么办呢?灵机一动,我有 stable diffusion ,可以生成一波。于是进行了一次烧卡行动,选择麦橘写实基础模型,然后填入常见的正向和负面提示词,主要就是"一个美丽的女孩"、"面部特写"、"看着观众"、"微笑"等提示词,每次生成 100 张图片,生成了 10 次,剔除了了吓人的鬼图,剩下了 972 张图片,效果如下,都是美女的写真。用 stable diffusion 生成的美女图来当作我的扩散模型的训练数据,然后用扩散模型再去生成美女图片,这是不是就是武当梯云纵,左脚踩右脚吗?我他娘的真是个天才。

理论基础


整个论文中对于模型的数学推导很复杂,涉及到很多高数的内容,但是最后繁重求简之后,得到的结论却是非常简单的,我们可以直接使用结论来复现模型的结构。要实现扩散模型生成数据需要两步:

  1. 训练阶段:使用定义好的超参数不同时间步原图进行添加不同程度的噪声,这些噪声作为我们的标签,然后使用扩散模型生成预测噪声,计算预测噪声原噪声的损失值,最后计算梯度更新扩散模型,不断重复这个过程直到收敛。

  2. 采样阶段:模型训练好,从一个正态分布的全噪声图中,不断使用扩散模型去噪,逐渐生成原图

扩散模型


扩散模型主要使用的是 Unet 的网络结构框架,U-Net 的最初是应用在医学图像分割,但是扩散模型在此基础上进行了些变化,主要有 6 个部分:

  1. 编码器(Encoder)部分 :U-Net 的编码器部分由多个卷积层组成,用于从输入图像中提取特征信息。这些卷积层通常包括卷积操作激活函数池化层。编码器的任务是逐渐降低图像分辨率,同时提取高级语义特征。
  2. 中间连接(Bottleneck) :U-Net 的中间连接部分将编码器的输出连接到解码器的输入。这个连接允许网络在不同分辨率上融合低级和高级特征信息,以便更好地还原细节。
  3. 解码器(Decoder)部分 :解码器部分由多个卷积层上采样操作组成,用于逐步恢复图像的分辨率,并生成预测噪声结果。
  4. 跳跃连接(Skip Connections) :U-Net 的关键设计特点是跳跃连接,它将编码器的特征图与解码器的特征图相连接。这些跳跃连接有助于传递详细的局部信息,帮助网络准确地预测噪声。
  5. 残差连接(Residual Connections) :残差连接是一种用于解决深度神经网络训练中的梯度消失和梯度爆炸问题的技术。在 U-Net 的解码器、中间连接、解码器中引入残差连接,可以帮助网络更轻松地训练更深层次的模型。残差连接通过将某一层的输入直接添加到该层的输出中。这有助于网络在反向传播中更好地传递梯度,从而加速收敛并提高模型性能。
  6. 注意力机制(Attention Mechanisms) :注意力机制允许神经网络在处理图像时更加关注感兴趣的区域或特征。在 U-Net 的解码器、中间连接、解码器中应用注意力机制,可以提高网络在噪声预测的效果

模型训练


我们的损失函数使用均方误差 MeanSquaredError ,优化器为 Adam,进行 800 个 epoch 的训练,每个 epoch 耗时平均 5 秒。

arduino 复制代码
Epoch 1/800
15/15 [==============================] - 19s 356ms/step - loss: 0.9907
Epoch 2/800
15/15 [==============================] - 5s 357ms/step - loss: 0.9657
...
Epoch 718/800
15/15 [==============================] - 6s 363ms/step - loss: 0.0163
Epoch 719/800
15/15 [==============================] - 6s 364ms/step - loss: 0.0198
...
Epoch 799/800
15/15 [==============================] - 6s 359ms/step - loss: 0.0233
Epoch 800/800
15/15 [==============================] - 6s 360ms/step - loss: 0.0174

效果展示


下图就是使用训练好的模型进行图像的绘制,可以看出来大部分还是比较不错的。从整个模型的训练和测试过程中有可以得出以下结论:

  • 优点:生成效果比较好,灵活的模型架构、不需要对抗训练
  • 缺点:计算复杂度较高,生成速度慢

后文


如果大家有什么有趣的想法也可以评论区留言,欢迎讨论。

参考


相关推荐
红色的山茶花2 小时前
YOLOv9-0.1部分代码阅读笔记-anchor_generator.py
笔记·深度学习·yolo
吃个糖糖2 小时前
37 Opencv SIFT 特征检测
人工智能·opencv·计算机视觉
Coovally AI模型快速验证3 小时前
YOLO11全解析:从原理到实战,全流程体验下一代目标检测
人工智能·yolo·目标检测·机器学习·计算机视觉·目标跟踪·yolo11
伊一大数据&人工智能学习日志4 小时前
OpenCV计算机视觉 03 椒盐噪声的添加与常见的平滑处理方式(均值、方框、高斯、中值)
计算机视觉
是Dream呀4 小时前
WHAT KAN I SAY?Kolmogorov-Arnold Network (KAN)网络结构介绍及实战(文末送书)
深度学习·神经网络·kan
湫ccc4 小时前
《Opencv》基础操作详解(2)
人工智能·opencv·计算机视觉
Crossoads6 小时前
【汇编语言】外中断(一)—— 外中断的魔法:PC机键盘如何触发计算机响应
android·开发语言·数据库·深度学习·机器学习·计算机外设·汇编语言
红色的山茶花6 小时前
YOLOv9-0.1部分代码阅读笔记-hubconf.py
笔记·深度学习·yolo
Hoper.J6 小时前
微调 BERT:实现抽取式问答
人工智能·深度学习·自然语言处理·llm·bert
G.Chenhui7 小时前
【conda】使用 conda 安装的 cuda-toolkit 时,安装的版本与指定版本不一致
深度学习·conda