第三课-界面介绍SD-Stable Diffusion 教程

前言

我们已经安装好了SD,这篇文章不介绍难以理解的原理,说使用。以后再介绍原理。

我的想法是,先学会画,然后明白原理,再去提高技术。

我失败过,知道三天打鱼两天晒网的痛苦,和很多人一样试了安装 github 版本,生成了几张图,发现效果不太理想,就放着了。后来也是花了几千元学了很多 SD 的课程,才逐渐上道。

界面基本功能

安装好了 SD ,我们就可以再下面的网页上绘图了:

①:大模型:绘图的主要模型,大小一般都在几个G。

②:VAE模型:可以理解为让图片更明亮一些。(不重要,现在的大模型一般都自带了VAE)

③:CLIP终止层数:值越大,出的结果和你预想的差别越大。这个值我们一般固定用1-4,默认用2就行。

④:文生图:常用的生成图片方式,根据提示词来生成图片。框中就是我们写的提示词,只能用英文。

正向提示词:告诉 SD 需要生成什么样的图片,比如,一个桃子。

⑤:反向提示词:告诉 SD 图片中不需要什么元素,比如,狗。意思是不要狗。

⑥:迭代步数:一般地,数值越高,画得越好,时间越长。30是比较合适的数值。

⑦:采样方法:Euler a 方法是扩散类型的,结果很难控制。我们一般采用 DPM++ 2S a Karras 等几个,结果不会发生大的变化,而是不断丰富细节,容易控制。

⑧:生成的图片。

选好基本参数,大模型,迭代步数30,采样方法DPM++ 2S a Karras,再加上自己写的提示词,就可以画出一幅比较完整的画了。

尝试过后,你可能发现,图片似乎还不够理想,没有完全按照你的想法来,比如脸部不正常。下次我们会继续介绍如何完善图片的方法。

小结

一次不要学太多内容。基本功能的介绍已经完成,以后再介绍进阶内容。

相关推荐
RanceGru3 小时前
LLM学习笔记5——本地部署ComfyUI和Wan2.1-T2V-1.3B文生视频模型
笔记·学习·stable diffusion·transformer
ding_zhikai1 天前
stable-diffusion试验1-静态人物
stable diffusion
love530love3 天前
【笔记】 Podman Desktop 中部署 Stable Diffusion WebUI (GPU 支持)
人工智能·windows·笔记·python·容器·stable diffusion·podman
迈火5 天前
PuLID_ComfyUI:ComfyUI中的图像生成强化插件
开发语言·人工智能·python·深度学习·计算机视觉·stable diffusion·语音识别
ding_zhikai6 天前
SD:在一个 Ubuntu 系统安装 stable diffusion Web UI
前端·ubuntu·stable diffusion
不当菜鸡的程序媛6 天前
Stable Diffusion里面Cross-Attention设计:为啥Q来自图像/噪声,K和V来自文本
人工智能·计算机视觉·stable diffusion
云澈ovo10 天前
FP16混合精度训练:Stable Diffusion生成速度提升300%的硬件配置方案
人工智能·机器学习·stable diffusion
weiwei228441 个月前
文生图模型Stable Diffusion使用详解
stable diffusion·文生图
Hello123网站1 个月前
DreamStudio-Stable Diffusion官方绘画工具
stable diffusion·ai工具
如若1231 个月前
CompVis Stable Diffusion 正确安装与运行指南
stable diffusion