stable-diffusion

阿钱真强道7 天前
aigc·stable-diffusion·controlnet·comfyui·softedge·ip-adapter·人物表情编辑
21 ComfyUI 实战:IP-Adapter + ControlNet 实现人物表情编辑,为什么降权重后更容易“笑出来”在人像表情编辑任务中,仅依赖 prompt 往往难以稳定实现“让人物笑起来”的目标。为兼顾结构稳定与人物一致性,可以将 IP-Adapter 与 SoftEdge ControlNet 组合使用:前者负责增强人物特征保持,后者负责约束整体结构与边缘轮廓。本文基于一套已验证的 ComfyUI 工作流,介绍 IPAdapterUnifiedLoader + IPAdapterAdvanced + PiDiNetPreprocessor + ControlNetApplyAdvanced 的组合方式,并重点分析
阿钱真强道8 天前
aigc·stable-diffusion·controlnet·comfyui·softedge·ip-adapter·人物表情编辑
20 ComfyUI 实战:用 ControlNet 实现人物表情编辑,让人物“笑起来”的工作流解析在基于 Stable Diffusion 的人物编辑任务中,一个非常常见但并不容易稳定实现的需求是:在尽量保持人物姿态、发型、服装和整体结构稳定的前提下,对人物表情进行编辑,例如让人物从自然状态变为微笑或大笑。
阿钱真强道8 天前
aigc·animatediff·stable-diffusion·comfyui·视频生成·图生视频·单图转视频
19 基于 ComfyUI 工作流学习 AnimateDiff:单图生成视频的入门实践与问题分析AnimateDiff 是当前基于扩散模型实现图像动态化的重要方案之一,在 ComfyUI 生态中也已经形成了较为成熟的接入方式。对于初学者而言,单图生成视频是理解 AnimateDiff 工作机制的一个合适入口。
阿钱真强道9 天前
animatediff·文生视频·stable-diffusion·comfyui·新手入门·工作流教程
17 ComfyUI AnimateDiff 新手教程:最小文生视频工作流搭建与原理解析刚接触 ComfyUI 和 AnimateDiff 时,最常见的两个问题通常是:很多教程一上来就堆很多插件和节点,结果还没跑通就先被劝退了。 这篇文章只做一件事:
阿钱真强道9 天前
animatediff·stable-diffusion·comfyui·工作流·ai视频·新手教程
18 AnimateDiff 简介:它在 AI 视频生成领域处于什么位置?AnimateDiff 是 Stable Diffusion 视频生态中一个非常有代表性的开源方案。它的核心价值,不是简单把多张图片拼成视频,而是尝试在采样阶段引入时间维度,让多帧之间具备连续关系。以一套典型工作流为例,AnimateDiff 可以通过 ADE_AnimateDiffLoaderGen1 加载 mm_sd_v15_v2.ckpt,再通过 ADE_UseEvolvedSampling 进入时序采样流程,结合 EmptyLatentImage 中的 512×512、16 帧设置,以及 VHS_
阿钱真强道13 天前
aigc·sdxl·stable-diffusion·一致性·comfyui·ipadapter·人物生成
10 ComfyUI IPAdapter 实战:上传一张参考图,轻松实现人物一致性控制很多人刚开始用 ComfyUI 画人像时,都会遇到一个特别烦的问题:人物不稳定。第一张图看着还不错,第二张、第三张就像换了个人。 尤其是你想让 AI 按照某张人物照片继续生成时,这种问题会更明显。
阿钱真强道19 天前
aigc·stable-diffusion·svd·comfyui·图生视频·rtx4090d
04 ComfyUI + SVD 系列(二):最小工作流实现图片生成视频(24 帧 + mp4 合成)上一篇已经把 ComfyUI + SVD 的环境装好了,目标是:这一篇就不再讲安装,直接进入最核心的实战部分:
阿钱真强道19 天前
python·aigc·stable-diffusion·svd·comfyui·工作流·图生视频
05 ComfyUI + SVD 系列(三):最小图生视频工作流拆解——节点含义、输入输出、参数作用与核心实验上一篇已经把 ComfyUI + SVD 的环境装好了,也已经成功跑通了一个最小的单图生成视频工作流。 但如果只是“照着图把节点连起来”,其实还不算真正学会。
阿钱真强道20 天前
aigc·stable-diffusion·svd·comfyui·图生视频·rtx4090
03 ComfyUI + SVD 系列(一):Ubuntu 24 + RTX 4090D 环境安装与启动验证最近准备做一个 “输入一张图片,输出一段短视频” 的最小验证。一开始其实纠结过两条路线:如果目标是:先快速完成“单图生成短视频”的最小闭环验证
龙腾万里sky2 年前
ai·stable-diffusion·comfyui·stableswarmui
Windows平台体验StableSwarmUI-0.6.4-Beta经验版由于网络原因,国内获取 ComfyUI 以及 SD_Xl_base_1.0 模型可能非常缓慢。想要丝滑获取,需要魔法或者高效上网。
thomas.he2 年前
stable diffusion·stable-diffusion·sstable
Stable Diffusion majicMIX_realistic模型的介绍及使用majicMIX_realistic模型是一种能够渲染出具有神秘或幻想色彩的真实场景的AI模型。这个模型的特点是在现实场景的基础上,通过加入一些魔法与奇幻元素来营造出极具画面效果和吸引力的图像。传统意义的现实场景虽然真实,但通常情况下缺乏奇幻性,而majicMIX_realistic模型就是为了解决这个问题而设计的。 该模型不仅适合生成各种魔法神秘场景,如城堡、魔法森林、奇幻岛屿等等,同时也适合生成那些生动有趣的奇幻生物,如神话中的独角兽、翼龙、海兽等等,这些生物通常具有光芒四射的装备、鲜艳而细腻的羽毛与
政安晨2 年前
神经网络·机器学习·aigc·sd·stable-diffusion·comfyui·stabilityai
政安晨【零基础玩转各类开源AI项目】基于Ubuntu系统部署ComfyUI:功能最强大、模块化程度最高的Stable Diffusion图形用户界面和后台目录ComfyUI的特性介绍开始安装做点准备工作在Conda虚拟环境中进行依赖项的安装运行政安晨的个人主页:政安晨
莫叶何竹2 年前
prompt·stable-diffusion·diffusion model·negative prompt
diffusion model(十八):diffusion model中negative prompt的工作机制前置阅读:DDPM: http://myhz0606.com/article/ddpmclassifier-guided:http://myhz0606.com/article/guided
爱听歌的周童鞋2 年前
llm·stable-diffusion·diffusion model
图像生成模型浅析(Stable Diffusion、DALL-E、Imagen)简单学习下图像生成模型的相关知识🤗以下内容来自于李宏毅老师的视频讲解课程主页:https://speech.ee.ntu.edu.tw/~hylee/ml/2023-spring.php
lukem442 年前
人工智能·大模型·stable-diffusion
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型平台注册链接: https://growthdata.virtaicloud.com/t/SA注册完成后,点击右上角:费用中心,可查看领取的算力。
水滴技术2 年前
python·ai作画·stable diffusion·stable-diffusion·webui
stable-diffusion-webui 安装与运行大家好,我是水滴~~本文主要介绍在各种显卡环境中,如何安装和运行 stable-diffusion-webui,包括:在 NVIDIA 显卡环境上安装、在 AMD 显卡环境上安装、在集显或小于 4G 显卡环境上安装。
深渊启源3 年前
人工智能·python·aigc·stable-diffusion
stable-diffusion-webui官方版本地安装教程最终效果官网:https://www.python.org/downloads/release/python-3106/
Java_默3 年前
python·pycharm·stable-diffusion·画图·1024程序员节·al
Python AI 绘画🏅我是默,这是我的个人主页。📚📚🌟在这里,我要推荐给大家我的专栏《Python》。🎯🎯🚀无论你是编程小白,还是有一定基础的程序员,这个专栏都能满足你的需求。我会用最简单易懂的语言,带你走进代码的世界,让你从零开始,一步步成为Python大师。🚀🏆
dzysunshine3 年前
llm·文生图·stable-diffusion
Stable Diffusion 提示词技巧Stable Diffusion是一个基于Latent Diffusion Model(LDM)的文生图AI模型,核心思想就是通过不断调整图像的隐式表示,逐渐接近真实图像。其具体实现方式是,将初始噪声向量通过一个潜空间网络转换为图像的隐式表示。然后,针对每个时间步,利用扩散过程逐渐优化该表示,使其逼近真实图像的隐式表示。最终,通过一个反向变换,将该隐式表示转换为生成的图像。
咬定青松3 年前
ai绘画·stable-diffusion
Stable Diffusion VAE:改善图像质量的原理、选型与使用指南VAE Stable Diffusion(稳定扩散)是一种用于生成模型的算法,结合了变分自编码器(Variational Autoencoder,VAE)和扩散生成网络(Diffusion Generative Network)的思想。它通过对变分自编码器进行改进,提高了生成样本的质量和多样性。