【comfyui】ControlNet 辅助预处理器节点——controlnet_aux (线稿、深度图、法线、脸部身体姿态估计)(星2.1K)

相关资料下载https://pan.baidu.com/s/1mmgzGbccr4yVy29IUasOtg?pwd=0924

ComfyUI's ControlNet Auxiliary (/ɔːɡˈzɪliəri/) Preprocessors 预处理器节点 :https://github.com/Fannovel16/comfyui_controlnet_aux

参考代码:https://github.com/lllyasviel/ControlNet/tree/main/annotator

huggingface部分模型:https://huggingface.co/lllyasviel/Annotators/tree/main

测试工作流需要用到的节点:https://github.com/melMass/comfy_mtb

下图第一排第一张为输入,剩下都是处理得到的分割,线稿、二值,色块图、深度图、openpose,处理图等,这些处理后的图可直接输入到controlnet中

一、实测所有的预处理器效果预览 (完整模型约17G)

二、与controlnet联合一起使用(只用输入一张图片,自动根据条件重绘)

2.1 Dwpose提取姿态(dwpose是openpose的升级),后经controlnet重绘

在comfyui空白处双击,出搜索框

同样方式搜索 load image, preview image,,然后连到一起

接入controlnet

效果展示 (后续接入修复人脸工作流就可以了)

a group of people in city ,face details

controlnet相应的节点

完整工作流见包

2.2 线稿抽取重绘

a boy ride a pig 一个骑猪猪的男孩

完整工作流

相应的线稿抽取对比

contrlnet部分

相关推荐
数智工坊1 天前
深度拆解AnomalyAny:异常检测新工作,利用Stable Diffusion生成真实多样异常样本!
人工智能·pytorch·python·stable diffusion
阿钱真强道3 天前
05 ComfyUI + SVD 系列(三):最小图生视频工作流拆解——节点含义、输入输出、参数作用与核心实验
python·aigc·stable-diffusion·svd·comfyui·工作流·图生视频
这张生成的图像能检测吗3 天前
(论文速读)ControlNet-XS: 从反馈控制系统视角重新思考图像生成的控制机制
人工智能·计算机视觉·controlnet·扩散模型·条件控制扩散模型
阿钱真强道3 天前
04 ComfyUI + SVD 系列(二):最小工作流实现图片生成视频(24 帧 + mp4 合成)
aigc·stable-diffusion·svd·comfyui·图生视频·rtx4090d
阿钱真强道4 天前
03 ComfyUI + SVD 系列(一):Ubuntu 24 + RTX 4090D 环境安装与启动验证
aigc·stable-diffusion·svd·comfyui·图生视频·rtx4090
语戚5 天前
深度解析:Stable Diffusion 底层原理 + U-Net Denoise 去噪机制全拆解
人工智能·ai·stable diffusion·aigc·模型
若苗瞬6 天前
过去换脸现在换头?ComfyUI+LTX2.3+BFS In Context LoRA
comfyui·swap·face·best·ltx
平安的平安6 天前
用 Python 玩转 AI 绘图:Stable Diffusion 本地部署指南
人工智能·python·stable diffusion
语戚6 天前
Stable Diffusion 核心模块深度拆解:CLIP、U-Net 与 VAE 原理全解析
人工智能·ai·stable diffusion·aigc·模型
yumgpkpm8 天前
华为昇腾910B上用Kubernetes(K8s)部署LLM和用Docker部署LLM的区别
docker·chatgpt·容器·stable diffusion·kubernetes·llama·gpu算力