Stable Diffusion 绘画入门教程(webui)-ControlNet(Tile/Blur)

上篇文章介绍了y语义分割Seg,这篇文章介绍下Tile/Blur(增加/减少细节)

Tile用于增加图片细节,一般用于高清修复,Blur用于减少图片细节(图片模糊),如下图,用Tile做修复:左边为原图(比较模糊),右边就是高清修复后的图(还是拿之前的小猫咪举例):

详细步骤,和前几篇依然一样:

文章目录

一、选大模型

我这里用的真实模型"majicMIXrealistic_v6.safetensors":

二、写提示词

提示词:

Best quality,masterpiece,ultra high res,(photorealistic:1.4),A cat is running happily in the snow,

反向提示词用通用即可

三、基础参数设置

基础参数设置还是和上篇文章一样,除了长宽,其他我都默认的,这里大家可以自行调试。

长宽可以通过ControlNet中的那个回传按钮回传过来,不用手动填写哦。


四、启用ControlNet

到这里,大家应该非常熟了,我就直接上图了,这个不用选择预处理器,选择IP2P后只有模型会自动加载:

这里预处理器要选择Tile,如果选择了Blur会更加模糊的,点击生成就可以了。

相关推荐
长不大的蜡笔小新6 小时前
基于Stable Diffusion的多模态图像生成与识别系统
stable diffusion
米汤爱学习13 小时前
stable-diffusion-webui【笔记】
笔记·stable diffusion
fantasy_arch16 小时前
Transformer vs Stable Diffusion vs LLM模型对比
深度学习·stable diffusion·transformer
盼小辉丶16 小时前
PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践
pytorch·深度学习·stable diffusion·生成模型
Blossom.11817 小时前
工业级扩散模型优化实战:从Stable Diffusion到LCM的毫秒级生成
开发语言·人工智能·python·深度学习·机器学习·stable diffusion·transformer
盼小辉丶2 天前
PyTorch实战(21)——扩散模型(Diffusion Model)
pytorch·深度学习·stable diffusion·生成模型
Tiger Shi3 天前
使用Qt调用stable-diffusion.cpp做一个客户端
人工智能·stable diffusion
byte轻骑兵3 天前
共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站
人工智能·stable diffusion
伟大的大威4 天前
在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI
stable diffusion·spark·comfyui
迈火6 天前
APISR IN COMFYUI:提升ComfyUI图像超分辨率的强力插件
图像处理·人工智能·计算机视觉·stable diffusion·aigc·音视频·midjourney