controlnet

春末的南方城市4 天前
人工智能·3d·aigc·controlnet·图像生成
单幅图像合成 360° 3D 场景的新方法:PanoDreamer,可同时生成全景图像和相应的深度信息。论文介绍了一种从单幅图像合成 360° 3D 场景的新方法。该方法以连贯的方式生成全景图及其相应的深度,解决了现有最先进方法(如 LucidDreamer 和 WonderJourney 的局限性。这些方法按照生成轨迹依次添加细节,通常在循环回输入图像时导致可见的接缝。相比之下,该方法可确保整个 360° 场景的一致性,如图所示。黄色条显示每个结果中与输入相对应的区域。
v_JULY_v1 个月前
controlnet·diffusionpolicy·扩散策略·umi所用策略·机器人动作预测·diff-control
Diffusion Policy——斯坦福机器人UMI所用的扩散策略:从原理到其编码实现(含Diff-Control、ControlNet详解)本文一开始是属于此文《UMI——斯坦福刷盘机器人:从手持夹持器到动作预测Diffusion Policy(含代码解读)》的第三部分,考虑后Diffusion Policy的重要性很高,加之后续还有一系列基于其的改进工作
曾小蛙3 个月前
stable diffusion·controlnet·comfyui·controlnet_aux·图像预处理器
【comfyui】ControlNet 辅助预处理器节点——controlnet_aux (线稿、深度图、法线、脸部身体姿态估计)(星2.1K)ComfyUI’s ControlNet Auxiliary (/ɔːɡˈzɪliəri/) Preprocessors 预处理器节点 :https://github.com/Fannovel16/comfyui_controlnet_aux 参考代码:https://github.com/lllyasviel/ControlNet/tree/main/annotator huggingface部分模型:https://huggingface.co/lllyasviel/Annotators/tree/m
Uncertainty!!5 个月前
stable diffusion·controlnet
ControlNet on Stable Diffusion笔记来源: 1.Adding Conditional Control to Text-to-Image Diffusion Models 2.How to Use OpenPose & ControlNet in Stable Diffusion 3.ControlNet与DreamBooth:生成模型的精细控制与主体保持 4.Introduction to ControlNet for Stable Diffusion 5.Stable Diffusion — ControlNet Clearly Ex
wyply11510 个月前
stable diffusion·controlnet·shuffle
Stable Diffusion 绘画入门教程(webui)-ControlNet(Shuffle)Shuffle(随机洗牌),这个预处理器会把参考图的颜色打乱搅拌到一起,然后重新组合的方式重新生成一张图,可以想象出来这是一个整体风格控制的处理器。
wyply11510 个月前
stable diffusion·controlnet·tile·blur
Stable Diffusion 绘画入门教程(webui)-ControlNet(Tile/Blur)上篇文章介绍了y语义分割Seg,这篇文章介绍下Tile/Blur(增加/减少细节)Tile用于增加图片细节,一般用于高清修复,Blur用于减少图片细节(图片模糊),如下图,用Tile做修复:左边为原图(比较模糊),右边就是高清修复后的图(还是拿之前的小猫咪举例):
wyply11510 个月前
stable diffusion·controlnet·recolor
Stable Diffusion 绘画入门教程(webui)-ControlNet(Recolor)Recolor,顾名思义就是重上色的意思,很明显能想到的用法就是老照片上色,也就是老照片修复,看下效果吧(左边为老旧照片,右边为重上色效果):
wyply11510 个月前
stable diffusion·图生图·controlnet·ip2p·让他变的
Stable Diffusion 绘画入门教程(webui)-ControlNet(IP2P)上篇文章介绍了深度Depth,这篇文章介绍下IP2P(InstructP2P), 通俗理解就是图生图,给原有图加一些效果,比如下图,左边为原图,右边为增加了效果的图:
wyply11510 个月前
stable diffusion·语义分割·controlnet·seg
Stable Diffusion 绘画入门教程(webui)-ControlNet(Seg)上篇文章介绍了深度Depth,这篇文章介绍下seg(Segmentation)意思为语义分割, 通俗理解就是把图中的不同物体元素按类别不同,标为不同的颜色,不同的颜色代表不同的元素类别,如下图,左边为原图,右边就是语义分割后的预览图(还是拿之前的房子举例):
wyply11510 个月前
stable diffusion·controlnet·depth·深度图·ai室内设计
Stable Diffusion 绘画入门教程(webui)-ControlNet(深度Depth)上篇文章介绍了线稿约束,这篇文章介绍下深度Depth顾名思义,就是把原图预处理为深度图,而深度图可以区分出图像中各元素的远近关系,那么啥事深度图?下面就是
wyply11510 个月前
人工智能·stable diffusion·openpose·controlnet
Stable Diffusion 绘画入门教程(webui)-ControlNet(姿态预处理器openpose)本片文章接着上篇文章ControlNet介绍他的控制类型,本篇介绍的预处理器为openpose预处理器:openpose 模型:control_v11p_sd15_openpose 没下载模型的看上篇文章去下载一下哦,不然用不了
wyply11510 个月前
stable diffusion·controlnet·canny·mlsd·lineart·softedge·scribble
Stable Diffusion 绘画入门教程(webui)-ControlNet(线稿约束)上篇文章介绍了openpose,本篇文章介绍下线稿约束,关于线稿约束有好几个处理器都属于此类型,但是有一些区别。
wyply11510 个月前
stable diffusion·controlnet·艺术字
Stable Diffusion 绘画入门教程(webui)-ControlNetControlNet可以说在SD里有着举足轻重的地位,如果没有ControlNet,sd的可玩性和实用性将大大降低。
木水_10 个月前
人工智能·diffusion·controlnet·diffbir
读论文:DiffBIR: Towards Blind Image Restoration with Generative Diffusion PriorDiffBIR 发表于2023年的ICCV,是一种基于生成扩散先验的盲图像恢复模型。它通过两个阶段的处理来去除图像的退化,并细化图像的细节。DiffBIR 的优势在于提供高质量的图像恢复结果,并且具有灵活的参数设置,可以在保真度和质量之间进行权衡。网络结构图如下所示:
细节控-AI先行者1 年前
人工智能·ai作画·controlnet·comfyui
[ComfyUI进阶教程] lcm+Lora+Controlnet工作流工作流这是一个使用了LCM+lora加载器+CN(depth+tile)的工作流。工作流特性:LCM lora加载器,加快生成图片的时间。
zmjia1111 年前
人工智能·python·gpt·prompt·aigc·midjourney·controlnet
如何使用GPT引领前沿与应用突破之GPT4科研实践技术与AI绘图GPT对于每个科研人员已经成为不可或缺的辅助工具,不同的研究领域和项目具有不同的需求。例如在科研编程、绘图领域: 1、编程建议和示例代码: 无论你使用的编程语言是Python、R、MATLAB还是其他语言,都可以为你提供相关的代码示例。 2、数据可视化: 生成各种类型的数据可视化图表,如折线图、柱状图、散点图、饼图、热力图等。提供数据和要求,生成相应的图表代码或绘制它们。 3、统计分析: 描述统计、假设检验、回归分析等,提供相关的建议和示例代码,帮助你理解和解释数据。 4、机器学习和数据挖掘: 可以为你提
萤火架构1 年前
人工智能·stable diffusion·ai绘画·controlnet·reference
Stable Diffusion基础:ControlNet之图片高仿效果今天继续给大家分享AI绘画中 ControlNet 的强大功能,本次的主角是 Reference,它可以将参照图片的风格迁移到新生成的图片中,这句话理解起来很困难,我们将通过几个实例来加深体会,比如照片转二次元风格、名画改造、AI减肥成功图片制作、绘本小故事等等。