Stable Diffusion绘画 | 来训练属于自己的模型:素材准备篇

首先要说明的是,模型训练,需要显卡持续不间断地一致运行,

快则0.5-1小时左右,慢的话可能需要跑上几小时,甚至是几天,

原因跟显卡的配置和训练设置参数都有关系。

模型训练与显卡配置:

  • 训练 LoRA模型:要求6GB显存及以上

  • 训练 Checkpoint:要求8GB显存及以上

  • 训练 SDXL模型:要求16GB显存及以上

因此,从显卡配置角度来看,更推荐训练 LoRA模型,而且训练 LoRA模型 比其他的要快上很多。

我们利用训练好的 LoRA模型,搭配合适的大模型,也能轻松实现各种定制的风格效果。

素材准备

确定模型主题

确认主题,有利于我们围绕模型的核心特点来准备素材,提供给AI学习。

我们所收集到的图片质量好与坏,直接影响模型的最终效果。

图片数量

这需要匹配模型风格来确定:

  • 训练通用性较强的模型:需要提供较多的图片素材,数量可以达到100张以上
  • 训练单一风格/指定角色的模型:至少需要提供20张图片素材

素材图片并非越多越好,图片过多,会增加训练时长,以及处理图片的工作量;

相反,图片过少,AI学习信息不足,从而导致生成的画面不拟合,描述词一改就达不到想要的效果了。

图片质量

首先,要确保图片清晰度;

其次,要确保图片的全面性;

以训练人物模型举例,需要准备以下的图片素材,包括:

  • 不同角度,表情
  • 不同姿势,光影
  • 面部特写照
  • 半身照
  • 全身照

最后,要注意图片中的细节:

  • 不要在素材文件夹中放置一样的图片,会影响AI的学习
  • 不要挑选主体被遮挡的图片
  • 应尽可能突出主体,不要挑选背景太花太复杂的图片

今天先分享到这里~


开启实践: SD绘画 | 为你所做的学习过滤

相关推荐
Tipriest_15 小时前
torch训练出的模型的组成以及模型训练后的使用和分析办法
人工智能·深度学习·torch·utils
QuiteCoder15 小时前
深度学习的范式演进、架构前沿与通用人工智能之路
人工智能·深度学习
周名彥15 小时前
### 天脑体系V∞·13824D完全体终极架构与全域落地研究报告 (生物计算与隐私计算融合版)
人工智能·神经网络·去中心化·量子计算·agi
我有一些感想……15 小时前
An abstract way to solve Luogu P1001
c++·算法·ai·洛谷·mlp
MoonBit月兔15 小时前
年终 Meetup:走进腾讯|AI 原生编程与 Code Agent 实战交流会
大数据·开发语言·人工智能·腾讯云·moonbit
大模型任我行16 小时前
人大:熵引导的LLM有限数据训练
人工智能·语言模型·自然语言处理·论文笔记
weixin_4684668516 小时前
YOLOv13结合代码原理详细解析及模型安装与使用
人工智能·深度学习·yolo·计算机视觉·图像识别·目标识别·yolov13
蹦蹦跳跳真可爱58916 小时前
Python----大模型(GPT-2模型训练加速,训练策略)
人工智能·pytorch·python·gpt·embedding
xwill*16 小时前
π∗0.6: a VLA That Learns From Experience
人工智能·pytorch·python
jiayong2316 小时前
知识库概念与核心价值01
java·人工智能·spring·知识库