Stable Diffusion 绘画入门教程(webui)-ControlNet(姿态预处理器openpose)

本片文章接着上篇文章ControlNet介绍他的控制类型,本篇介绍的预处理器为openpose

预处理器:openpose

模型:control_v11p_sd15_openpose

没下载模型的看上篇文章去下载一下哦,不然用不了

文章目录

一、干什么用的

这个处理器主要用于控制姿态,通常的实战用法用于:

1、控制人物身体姿势

2、控制人物手指(经常出现手指畸形或多手指用这个很方便控制住)

3、控制人物表情

如下图,控制整体大概姿势(我没写芭蕾舞,所以生成的姿态像,但像坐着二傻的姿态,哈哈哈,这就是有趣的地方啦)

二、详细用法

和之前一样,流程依然是:

1、选大模型

2、写提示词

3、基础参数设置

4、启用controlNet(上传图片、选择controlNet模型、调节controlNet参数)

1、选大模型

我这里用的是"majicMIXrealistic_v6.safetensors ",根据自己喜好选择合适大模型即可

2、写提示词

依然是画质、主体、主体细节、人物服装和其他,加上lora

反向提示词配上通用的即可(不知道的伙伴参考之前的文章

3、基础参数设置

这里注意的是宽和高尽量和之前一致哦,可以通过后边的controNet有个按钮,点一下就直接同步过来,不用手填。

4、启用controlNet

这里要控制整体姿态,用的是openpose

点击预处理器右边的爆炸图标,上边就可以看到预处理结果啦

然后点击预处理结果右下角的编辑,可以随意编辑火柴人调节姿态

三、其他

注意,姿态的预处理器还有其他几个

我自己使用的经验,一般手指比较清晰能识别出来的话,或者你手动调整能调整好就用带手部的预处理器,如果不行就用只识别姿态的处理器。

脸部的话因为点比较多,最好是近景特写脸部得照片用脸部的识别,否则生成的图像可能不太符合你的口味🤣。

相关推荐
stbomei36 分钟前
当 AI 开始 “理解” 情感:情感计算技术正在改写人机交互规则
人工智能·人机交互
Moshow郑锴6 小时前
人工智能中的(特征选择)数据过滤方法和包裹方法
人工智能
TY-20256 小时前
【CV 目标检测】Fast RCNN模型①——与R-CNN区别
人工智能·目标检测·目标跟踪·cnn
CareyWYR7 小时前
苹果芯片Mac使用Docker部署MinerU api服务
人工智能
失散137 小时前
自然语言处理——02 文本预处理(下)
人工智能·自然语言处理
mit6.8248 小时前
[1Prompt1Story] 滑动窗口机制 | 图像生成管线 | VAE变分自编码器 | UNet去噪神经网络
人工智能·python
sinat_286945198 小时前
AI应用安全 - Prompt注入攻击
人工智能·安全·prompt
迈火9 小时前
ComfyUI-3D-Pack:3D创作的AI神器
人工智能·gpt·3d·ai·stable diffusion·aigc·midjourney
Moshow郑锴10 小时前
机器学习的特征工程(特征构造、特征选择、特征转换和特征提取)详解
人工智能·机器学习
CareyWYR10 小时前
每周AI论文速递(250811-250815)
人工智能