stable diffusion

leafff12319 小时前
人工智能·stable diffusion
Stable Diffusion在进行AI 创作时对算力的要求Stable Diffusion 在不同创作场景下的算力要求差异较大,核心取决于生成内容的复杂度(分辨率、细节精度)、使用的模型组合(基础模型 + 插件)以及创作规模(单张 / 批量 / 视频帧)。以下是分场景的算力需求分析:
leafff12319 小时前
人工智能·stable diffusion·aigc
Stable Diffusion进行AIGC创作时的算力优化方案Stable Diffusion 的算力优化核心是在画质与速度间找平衡,通过软件参数调整、硬件适配、模型优化三大方向,可显著降低显存占用、提升生成效率,无需盲目升级硬件。
ding_zhikai1 天前
stable diffusion
stable-diffusion试验2-像素人物帧动画2(含 AnimeEffects 简易教程 等)具体转绘的方法在《stable-diffusion试验2-像素人物帧动画1》3.2节 的第三个样例有介绍。本节在此基础上进行进一步操作,目的是得到“真·像素图”。
ding_zhikai2 天前
linux·ubuntu·stable diffusion
SD:在一个 Ubuntu 系统安装 stable diffusion ComfyUI我将其安装在本地的 ~/programs 下面(这个路径自选)注: base_path 必须是绝对路径,~ 不会展开。 缩进只能空格,YAML 对 Tab 零容忍。 如果想再加自己独立目录,继续往下加同级字段即可,ComfyUI 会合并读取。
ding_zhikai2 天前
stable diffusion
stable-diffusion试验2-像素人物帧动画1仅做个人尝试,目前效果不达预期。详见同专栏文章《stable-diffusion试验1-静态人物》,里面介绍了:
wg26272 天前
stable diffusion
Stable Diffusion 安装教程(详细)_stable diffusion安装手动安装 一、安装python 安装3.10.6版本,这个是Stable Diffusion WebUI作者推荐安装版本,打开http://python.org/downloads/页面找到3.10.6版本下载,安装后 add python 3.10 to PATH。 二、安装git Git官网,找到64-bit Git windows Setup进行下载。安装一直下一步就可以。 三、安装Stable Diffusion WebUI 接着安装Stable Diffusion WebUI,在硬盘空间充足,并
weiwei228443 天前
stable diffusion·controlnet
ControlNet——AI图像生成的“精准操控工具”ControlNet是由斯坦福大学研究者张吕敏等人于2023年提出的一种AI图像生成控制技术,核心作用是让用户在保持生成图像 “创造力” 的同时,精准控制图像的结构、姿态、轮廓、深度等关键空间信息,解决了传统扩散模型(如 Stable Diffusion)生成结果 “不可控” 的核心痛点。
RanceGru5 天前
笔记·学习·stable diffusion·transformer
LLM学习笔记5——本地部署ComfyUI和Wan2.1-T2V-1.3B文生视频模型参考博客ComfyUI 是一个基于节点的 GUI,为 Stable Diffusion 等工作提供了一种更加直观、灵活的方式来操作和管理生成的过程。通过将不同的模块节点组合在一起,可以构建一个图像生成的工作流。就像有一块数字画布,可以通过连接不同的节点来构建自己独特的图像生成工作流,每个节点代表一个特定的功能或操作。
ding_zhikai6 天前
stable diffusion
stable-diffusion试验1-静态人物通用 ng_deepnegative_v1_75t,(badhandv4:1.2),EasyNegative,(worst quality:2),
love530love8 天前
人工智能·windows·笔记·python·容器·stable diffusion·podman
【笔记】 Podman Desktop 中部署 Stable Diffusion WebUI (GPU 支持)Podman 桌面 - 容器和 Kubernetes |Podman 桌面podman-desktop/podman-desktop:Podman Desktop 是开发人员使用容器和 Kubernetes 的最佳免费开源工具。获得直观且用户友好的界面,轻松构建、管理和部署容器和 Kubernetes,所有这些都可以通过您的桌面完成。
迈火9 天前
开发语言·人工智能·python·深度学习·计算机视觉·stable diffusion·语音识别
PuLID_ComfyUI:ComfyUI中的图像生成强化插件PuLID_ComfyUI为ComfyUI用户提供了强大的图像生成和风格融合能力,通过与ComfyUI的深度集成,使得图像生成过程更加灵活和可定制。其独特的基于多步闪电模型的处理方式,在图像细节增强、色彩均匀度提升等方面表现出色,能够满足用户在艺术创作、设计等多个领域对图像质量和风格控制的高要求。丰富的参数配置和不同的节点功能,让用户可以根据具体需求进行精细调整,但同时也需要用户对图像生成原理和相关参数有一定的了解,以便充分发挥其优势。总的来说,PuLID_ComfyUI是一款为专业用户和对图像生成有较高
ding_zhikai10 天前
前端·ubuntu·stable diffusion
SD:在一个 Ubuntu 系统安装 stable diffusion Web UI教程来源 以下方法主要通过提问 AI 得到答案,遇到安装问题也是和 AI 描述并尝试解决方法。 有些问题 AI 也没能解决,直接在搜索引擎中搜索,找相关的帖子或博客。 请读者朋友们因地制宜。
不当菜鸡的程序媛10 天前
人工智能·计算机视觉·stable diffusion
Stable Diffusion里面Cross-Attention设计:为啥Q来自图像/噪声,K和V来自文本简单来说,这样设计是为了让图像生成过程去“查询”和“对齐”文本指令。它的核心思想是:“基于给定的文本,我(图像)应该变成什么样子?”
云澈ovo14 天前
人工智能·机器学习·stable diffusion
FP16混合精度训练:Stable Diffusion生成速度提升300%的硬件配置方案🚀 在 AIGC(AI Generated Content)火热的今天,Stable Diffusion 已成为图片生成领域的明星模型。然而,很多开发者在本地部署或训练时常常遇到:显存不足、推理速度慢、训练卡顿 等问题。 解决方案之一就是 —— FP16混合精度训练(Mixed Precision Training)。本文将结合实际实验,分享如何通过 硬件配置优化 + FP16技术,让 Stable Diffusion 的生成速度提升 300% 以上。
weiwei228441 个月前
stable diffusion·文生图
文生图模型Stable Diffusion使用详解Stable Diffusion是 2022 年发布的深度学习文字到图像生成模型。它主要用于根据文字的描述产生详细图像,能够在几秒钟内创作出令人惊叹的作品。
Hello123网站1 个月前
stable diffusion·ai工具
DreamStudio-Stable Diffusion官方绘画工具本文转载自:https://www.hello123.com/dreamstudio**一、🚀 DreamStudio 是什么?
如若1231 个月前
stable diffusion
CompVis Stable Diffusion 正确安装与运行指南目标:使用 CompVis 官方仓库脚本 scripts/txt2img.py 在 CUDA 11.8 + PyTorch 2.3.1 环境下直接生成图片。
全息数据1 个月前
深度学习·stable diffusion·多模态·ddpm
DDPM代码讲解【详细!!!】UNet网络的总体框架如下,右边是UNet网络的整体框架,左边是residual网络和attention网络,
老鱼说AI2 个月前
人工智能·pytorch·深度学习·神经网络·语言模型·自然语言处理·stable diffusion
当自回归模型遇上扩散模型:下一代序列预测模型详解与Pytorch实现今天我们来详细讲解一下用于序列预测的自回归扩散模型 (Autoregressive Diffusion Models)。
我希望的一路生花2 个月前
人工智能·计算机视觉·设计模式·stable diffusion·aigc
Nik Collection 6.2全新版Nik降噪锐化调色PS/LR插件今天给大家分享的是Nik Collection 6.2全新版Nik降噪锐化调色PS/LR插件。Nik Collection是一款由Google收购的图片后期处理插件合集,包含了色彩效果滤镜、图像锐化、HDR合成、降噪等多种功能,可兼容Photoshop、Lightroom等软件。