Stable Diffusion绘画 | 来训练属于自己的模型:素材准备篇

首先要说明的是,模型训练,需要显卡持续不间断地一致运行,

快则0.5-1小时左右,慢的话可能需要跑上几小时,甚至是几天,

原因跟显卡的配置和训练设置参数都有关系。

模型训练与显卡配置:

  • 训练 LoRA模型:要求6GB显存及以上

  • 训练 Checkpoint:要求8GB显存及以上

  • 训练 SDXL模型:要求16GB显存及以上

因此,从显卡配置角度来看,更推荐训练 LoRA模型,而且训练 LoRA模型 比其他的要快上很多。

我们利用训练好的 LoRA模型,搭配合适的大模型,也能轻松实现各种定制的风格效果。

素材准备

确定模型主题

确认主题,有利于我们围绕模型的核心特点来准备素材,提供给AI学习。

我们所收集到的图片质量好与坏,直接影响模型的最终效果。

图片数量

这需要匹配模型风格来确定:

  • 训练通用性较强的模型:需要提供较多的图片素材,数量可以达到100张以上
  • 训练单一风格/指定角色的模型:至少需要提供20张图片素材

素材图片并非越多越好,图片过多,会增加训练时长,以及处理图片的工作量;

相反,图片过少,AI学习信息不足,从而导致生成的画面不拟合,描述词一改就达不到想要的效果了。

图片质量

首先,要确保图片清晰度;

其次,要确保图片的全面性;

以训练人物模型举例,需要准备以下的图片素材,包括:

  • 不同角度,表情
  • 不同姿势,光影
  • 面部特写照
  • 半身照
  • 全身照

最后,要注意图片中的细节:

  • 不要在素材文件夹中放置一样的图片,会影响AI的学习
  • 不要挑选主体被遮挡的图片
  • 应尽可能突出主体,不要挑选背景太花太复杂的图片

今天先分享到这里~


开启实践: SD绘画 | 为你所做的学习过滤

相关推荐
DeepModel16 分钟前
机器学习非线性降维:局部线性嵌入 LLE
人工智能·机器学习
lUie INGA21 分钟前
rust web框架actix和axum比较
前端·人工智能·rust
新缸中之脑44 分钟前
HDRI-Generator: 环境贴图生成AI
人工智能·贴图
网安情报局1 小时前
企业押注Agentic SOC:AI重塑安全运营新范式
人工智能·网络安全
夜幕下的ACM之路1 小时前
一、基础知识学习(Transformer + 上下文窗口 + Token 计算 + Embedding 向量)
人工智能·学习·transformer·embedding
东离与糖宝1 小时前
LangChain4j vs Spring AI:最新对比,Java企业级Agent开发
java·人工智能
私人珍藏库1 小时前
[Windows] 绘画工具 Krita v5.3.1
人工智能·windows·媒体·工具·软件·多功能
前端摸鱼匠1 小时前
【AI大模型春招面试题13】残差连接(Residual Connection)与层归一化(Layer Norm)在Transformer中的作用?
人工智能·深度学习·语言模型·面试·transformer·求职招聘
重生之我要成为代码大佬1 小时前
HuggingFace生态实战:从模型应用到高效微调
人工智能·python·大模型·huggingface·模型微调