stable diffusion学习笔记——文生图(二)

LORA和Embeddings都可以对画面内容进行调整。目前LORA主要用来定义画面特征,如具体的人物,衣物,画风等。Embeddings目前主要用于反面提示词中,用来避免错误的画面表现。

LORA

lora的全称为:低秩适应模型。lora的基本用法很简单,首先要将下载好的lora文件存放在特定目录下:

我们先不使用lora,先用基本的提示词生成一张图片:

从生成的图片可以看到,提示词基本上在图片中都得到了体现。

这里提出一个问题,如果我想让特定的角色出现在画面中,怎么办呢?

我们可以使用lora解决这个问题。首先我们在提

只引入lora文件可能不生效,不同的lora需要不同的提示词去触发效果,这里我们将对应的提示词加入到正向提示词里面。

souryuu asuka langley  一个lora会有1个以上的提示词

生成的图片可以看到,图片里的人物具备了较多的特定人物特征。

lora的权重通常设置在0.7-1.0之间。设置的值过大会导致画面饱和度以及画面细节失常;设置的值过小会导致特征在图片上不体现。

Embeddings

嵌入式网络目前通常用在负面提示词词条中,用于抑制画面中出现某些特征。比如人物图像中常见的坏手,多肢体等特征可以通过增加嵌入式网络到负面提示词中得以控制。

图中框出的反向词都是嵌入式网络,用于抑制人物的肢体错误。

嵌入式网络存放目录如下

相关推荐
黑叶白树1 小时前
简单的签到程序 python笔记
笔记·python
@小博的博客1 小时前
C++初阶学习第十弹——深入讲解vector的迭代器失效
数据结构·c++·学习
幸运超级加倍~2 小时前
软件设计师-上午题-15 计算机网络(5分)
笔记·计算机网络
南宫生2 小时前
贪心算法习题其四【力扣】【算法学习day.21】
学习·算法·leetcode·链表·贪心算法
懒惰才能让科技进步3 小时前
从零学习大模型(十二)-----基于梯度的重要性剪枝(Gradient-based Pruning)
人工智能·深度学习·学习·算法·chatgpt·transformer·剪枝
love_and_hope3 小时前
Pytorch学习--神经网络--搭建小实战(手撕CIFAR 10 model structure)和 Sequential 的使用
人工智能·pytorch·python·深度学习·学习
Chef_Chen3 小时前
从0开始学习机器学习--Day14--如何优化神经网络的代价函数
神经网络·学习·机器学习
芊寻(嵌入式)3 小时前
C转C++学习笔记--基础知识摘录总结
开发语言·c++·笔记·学习
准橙考典3 小时前
怎么能更好的通过驾考呢?
人工智能·笔记·自动驾驶·汽车·学习方法
hong1616884 小时前
跨模态对齐与跨领域学习
学习