Stable Diffusion 绘画入门教程(webui)-ControlNet(IP2P)

上篇文章介绍了深度Depth,这篇文章介绍下IP2P(InstructP2P), 通俗理解就是图生图,给原有图加一些效果,比如下图,左边为原图,右边为增加了效果的图:

文章目录

玩法流程和之前一样哦

一、选大模型

我这里用的大模型是"anything-v5-PrtRE.safetensors",选用不同模型生成效果会有区别,可以自己找喜欢的风格的大模型使用

二、写提示词

这个ip2p比较特殊,需要提示词中加:make it xxx(意思是让它变的xx)

我这里是让它着火(make it fire),是的,提示词就 make it fire 就出来刚才的效果哦

三、基础参数设置

基础参数设置还是和上篇文章一样,除了长宽,其他我都默认的,这里大家可以自行调试。

长宽可以通过ControlNet中的那个回传按钮回传过来,不用手动填写哦。

四、启用ControlNet

到这里,大家应该比较熟了,我就直接上图了,这个不用选择预处理器,选择IP2P后只有模型会自动加载

点击生成就可以啦

其他玩法,比如让他变成蜘蛛侠,让他变成钢铁侠,让他变成冬天等等都是可以的,大家自己去发挥脑洞吧

相关推荐
米汤爱学习6 小时前
stable-diffusion-webui【笔记】
笔记·stable diffusion
fantasy_arch8 小时前
Transformer vs Stable Diffusion vs LLM模型对比
深度学习·stable diffusion·transformer
盼小辉丶8 小时前
PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践
pytorch·深度学习·stable diffusion·生成模型
Blossom.1189 小时前
工业级扩散模型优化实战:从Stable Diffusion到LCM的毫秒级生成
开发语言·人工智能·python·深度学习·机器学习·stable diffusion·transformer
盼小辉丶1 天前
PyTorch实战(21)——扩散模型(Diffusion Model)
pytorch·深度学习·stable diffusion·生成模型
Tiger Shi2 天前
使用Qt调用stable-diffusion.cpp做一个客户端
人工智能·stable diffusion
byte轻骑兵2 天前
共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站
人工智能·stable diffusion
伟大的大威3 天前
在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI
stable diffusion·spark·comfyui
迈火6 天前
APISR IN COMFYUI:提升ComfyUI图像超分辨率的强力插件
图像处理·人工智能·计算机视觉·stable diffusion·aigc·音视频·midjourney
迈火8 天前
ComfyUI - ELLA:解锁ComfyUI图像生成新境界的神奇插件
人工智能·gpt·stable diffusion·aigc·音视频·midjourney·llama