Stable Diffusion 绘画入门教程(webui)-ControlNet(IP2P)

上篇文章介绍了深度Depth,这篇文章介绍下IP2P(InstructP2P), 通俗理解就是图生图,给原有图加一些效果,比如下图,左边为原图,右边为增加了效果的图:

文章目录

玩法流程和之前一样哦

一、选大模型

我这里用的大模型是"anything-v5-PrtRE.safetensors",选用不同模型生成效果会有区别,可以自己找喜欢的风格的大模型使用

二、写提示词

这个ip2p比较特殊,需要提示词中加:make it xxx(意思是让它变的xx)

我这里是让它着火(make it fire),是的,提示词就 make it fire 就出来刚才的效果哦

三、基础参数设置

基础参数设置还是和上篇文章一样,除了长宽,其他我都默认的,这里大家可以自行调试。

长宽可以通过ControlNet中的那个回传按钮回传过来,不用手动填写哦。

四、启用ControlNet

到这里,大家应该比较熟了,我就直接上图了,这个不用选择预处理器,选择IP2P后只有模型会自动加载

点击生成就可以啦

其他玩法,比如让他变成蜘蛛侠,让他变成钢铁侠,让他变成冬天等等都是可以的,大家自己去发挥脑洞吧

相关推荐
leafff1234 天前
Stable Diffusion在进行AI 创作时对算力的要求
人工智能·stable diffusion
leafff1234 天前
Stable Diffusion进行AIGC创作时的算力优化方案
人工智能·stable diffusion·aigc
ding_zhikai5 天前
stable-diffusion试验2-像素人物帧动画2(含 AnimeEffects 简易教程 等)
stable diffusion
ding_zhikai5 天前
SD:在一个 Ubuntu 系统安装 stable diffusion ComfyUI
linux·ubuntu·stable diffusion
ding_zhikai6 天前
stable-diffusion试验2-像素人物帧动画1
stable diffusion
wg26276 天前
Stable Diffusion 安装教程(详细)_stable diffusion安装
stable diffusion
weiwei228446 天前
ControlNet——AI图像生成的“精准操控工具”
stable diffusion·controlnet
RanceGru8 天前
LLM学习笔记5——本地部署ComfyUI和Wan2.1-T2V-1.3B文生视频模型
笔记·学习·stable diffusion·transformer
ding_zhikai9 天前
stable-diffusion试验1-静态人物
stable diffusion
love530love11 天前
【笔记】 Podman Desktop 中部署 Stable Diffusion WebUI (GPU 支持)
人工智能·windows·笔记·python·容器·stable diffusion·podman