第三课-界面介绍SD-Stable Diffusion 教程

前言

我们已经安装好了SD,这篇文章不介绍难以理解的原理,说使用。以后再介绍原理。

我的想法是,先学会画,然后明白原理,再去提高技术。

我失败过,知道三天打鱼两天晒网的痛苦,和很多人一样试了安装 github 版本,生成了几张图,发现效果不太理想,就放着了。后来也是花了几千元学了很多 SD 的课程,才逐渐上道。

界面基本功能

安装好了 SD ,我们就可以再下面的网页上绘图了:

①:大模型:绘图的主要模型,大小一般都在几个G。

②:VAE模型:可以理解为让图片更明亮一些。(不重要,现在的大模型一般都自带了VAE)

③:CLIP终止层数:值越大,出的结果和你预想的差别越大。这个值我们一般固定用1-4,默认用2就行。

④:文生图:常用的生成图片方式,根据提示词来生成图片。框中就是我们写的提示词,只能用英文。

正向提示词:告诉 SD 需要生成什么样的图片,比如,一个桃子。

⑤:反向提示词:告诉 SD 图片中不需要什么元素,比如,狗。意思是不要狗。

⑥:迭代步数:一般地,数值越高,画得越好,时间越长。30是比较合适的数值。

⑦:采样方法:Euler a 方法是扩散类型的,结果很难控制。我们一般采用 DPM++ 2S a Karras 等几个,结果不会发生大的变化,而是不断丰富细节,容易控制。

⑧:生成的图片。

选好基本参数,大模型,迭代步数30,采样方法DPM++ 2S a Karras,再加上自己写的提示词,就可以画出一幅比较完整的画了。

尝试过后,你可能发现,图片似乎还不够理想,没有完全按照你的想法来,比如脸部不正常。下次我们会继续介绍如何完善图片的方法。

小结

一次不要学太多内容。基本功能的介绍已经完成,以后再介绍进阶内容。

相关推荐
Niuguangshuo1 天前
DALL-E 3:如何通过重构“文本描述“革新图像生成
人工智能·深度学习·计算机视觉·stable diffusion·重构·transformer
Niuguangshuo2 天前
深入解析 Stable Diffusion XL(SDXL):改进潜在扩散模型,高分辨率合成突破
stable diffusion
Niuguangshuo2 天前
深入解析Stable Diffusion基石——潜在扩散模型(LDMs)
人工智能·计算机视觉·stable diffusion
迈火2 天前
SD - Latent - Interposer:解锁Stable Diffusion潜在空间的创意工具
人工智能·gpt·计算机视觉·stable diffusion·aigc·语音识别·midjourney
迈火9 天前
Facerestore CF (Code Former):ComfyUI人脸修复的卓越解决方案
人工智能·gpt·计算机视觉·stable diffusion·aigc·语音识别·midjourney
重启编程之路10 天前
Stable Diffusion 参数记录
stable diffusion
孤狼warrior13 天前
图像生成 Stable Diffusion模型架构介绍及使用代码 附数据集批量获取
人工智能·python·深度学习·stable diffusion·cnn·transformer·stablediffusion
love530love15 天前
【避坑指南】提示词“闹鬼”?Stable Diffusion 自动注入神秘词汇 xiao yi xian 排查全记录
人工智能·windows·stable diffusion·model keyword
世界尽头与你15 天前
Stable Diffusion web UI 未授权访问漏洞
安全·网络安全·stable diffusion·渗透测试
love530love15 天前
【故障解析】Stable Diffusion WebUI 更换主题后启动报 JSONDecodeError?可能是“主题加载”惹的祸
人工智能·windows·stable diffusion·大模型·json·stablediffusion·gradio 主题