无需微调!IP-Adapater助力AIGC造型设计🧑‍🎨

ip-adapter是2023年由腾讯团队推出的用于文本到图像扩散模型的文本兼容图像提示适配器, 将图片作为提示prompt去引导stable diffusion生成图片。

平时我们用stable diffusion来生图,都要设计好精确的文本prompt来引导。但是一图胜千言,再好的文字描述也比不上一张参考图片中包含的丰富信息。

🤔对于我个人的使用体验来说,ip-adapter最惊喜的是能够无训练就快速进行风格转换(无需写提示词),而且生成的图片能够为造型设计带来不一样的灵感。

For Example......

🚗🐱汽车前脸+猫猫脸

🍎💓苹果+香水

💐🍃野兽派+Snoopy

一个可爱snoopy样式的花瓶~

使用ip-adapter进行造型设计 的关键就是参考图片和输入图片都必须是较高清的物体,比如上面的汽车和猫猫就都是明确的物体,如果ip-image是一幅画的话,那就是风格转换或者背景替换了。

参数范围 ⚠️

下面是平时使用ip-adapter时,觉得比较适合的参数范围,仅供大家参考~

  • strength-重绘幅度: 0.5-0.7之间

  • scale-ip_adapter的影响因子:0.7~0.9之间

  • num_inference_steps:20-30即可

一些官方效果

ip-adapter可以结合diffusers库的各种pipeline使用, 代码链接如下~

github.com/tencent-ail...

image variation

img2img

inpainting

模型 🧀

模型在huggingface.co/h94/IP-Adap... 下载,主要包括基于sdv1_5和sdxl的模型

vae模型下载链接: huggingface.co/stabilityai...

下面这篇文章介绍了ip-adapter不同模型的作用,可供大家选择参考~

blog.csdn.net/JuMengXiaoK...

上面介绍ip-adapter的效果,下面我们就来浅浅地解析一下ip-adapter的技术原理~

ip-adapter的技术框架

其实ip-adapter就是将文本特征和图像特征通过decouple cross attention合并在一起,再将decouple cross attention的特征跟潜在表示z做注意力机制,与stable diffusion的cross attention机制类似。

我们先来复习一下stable diffusion中,文本是如何做引导的:

可以从图中看到,文本特征与隐变量z实施交叉注意力机制,实现了信息的精密融合与注入,输入文本的交叉注意力计算公式为:

对于图像特征,使用CLIP提取,再将图像特征映射到跟文本特征一样的维度,输入图片的交叉注意力计算公式为:

最后将计算得到的注意力分数相加,注入unet的transformers 模块中。

这种将文本注意力和图片注意力分开直接相加的方法,在论文里也被称作解耦交叉注意力机制:

运行代码,打印unet的代码结构,我们可以看到每一层cross attention都被注入了IPAttnProcessor模块,IPAttnProcessor实现了decouple cross attention机制

js 复制代码
 (0): CrossAttnDownBlock2D(
      (attentions): ModuleList(
        (0): Transformer2DModel(
          (norm): GroupNorm(32, 320, eps=1e-06, affine=True)
          (proj_in): Conv2d(320, 320, kernel_size=(1, 1), stride=(1, 1))
          (transformer_blocks): ModuleList(
            (0): BasicTransformerBlock(
              (norm1): LayerNorm((320,), eps=1e-05, elementwise_affine=True)
              (attn1): Attention(
                (to_q): Linear(in_features=320, out_features=320, bias=False)
                (to_k): Linear(in_features=320, out_features=320, bias=False)
                (to_v): Linear(in_features=320, out_features=320, bias=False)
                (to_out): ModuleList(
                  (0): Linear(in_features=320, out_features=320, bias=True)
                  (1): Dropout(p=0.0, inplace=False)
                )
                (processor): AttnProcessor() 
              )
              (norm2): LayerNorm((320,), eps=1e-05, elementwise_affine=True)
              (attn2): Attention(
                (to_q): Linear(in_features=320, out_features=320, bias=False)
                (to_k): Linear(in_features=768, out_features=320, bias=False)
                (to_v): Linear(in_features=768, out_features=320, bias=False)
                (to_out): ModuleList(
                  (0): Linear(in_features=320, out_features=320, bias=True)
                  (1): Dropout(p=0.0, inplace=False)
                )
                (processor): IPAttnProcessor(
                  (to_k_ip): Linear(in_features=768, out_features=320, bias=False)
                  (to_v_ip): Linear(in_features=768, out_features=320, bias=False)
                )
              )

所以IP-Adapter的原理就是如此简单,其实就是将图片也作为prompt来引导生图过程了~

结尾 🦋

今天我们介绍了使用IP-Adapter为造型设计提供灵感的方法,也简单解释了一下IP-Adapter的原理~下次的文章将会介绍更多diffusion风格转换的方法,敬请期待哦

相关推荐
天天向上杰1 分钟前
通义灵码AI程序员
人工智能·aigc·ai编程
sendnews12 分钟前
AI赋能教育,小猿搜题系列产品携手DeepSeek打造个性化学习新体验
人工智能
查理零世15 分钟前
【蓝桥杯集训·每日一题2025】 AcWing 6134. 哞叫时间II python
python·算法·蓝桥杯
仟濹15 分钟前
【二分搜索 C/C++】洛谷 P1873 EKO / 砍树
c语言·c++·算法
紫雾凌寒24 分钟前
解锁机器学习核心算法|神经网络:AI 领域的 “超级引擎”
人工智能·python·神经网络·算法·机器学习·卷积神经网络
WBingJ34 分钟前
2月17日深度学习日记
人工智能
zhengyawen66635 分钟前
深度学习之图像分类(一)
人工智能·深度学习·分类
莫莫莫i39 分钟前
拆解微软CEO纳德拉战略蓝图:AI、量子计算、游戏革命如何改写未来规则!
人工智能·微软·量子计算
C#Thread42 分钟前
机器视觉--图像的运算(加法)
图像处理·人工智能·计算机视觉
京东零售技术1 小时前
AI Agent实战:打造京东广告主的超级助手 | 京东零售技术实践
算法