Style Aligned image generation via shared attention

和controlnet的reference only技术类似。

1.introduction

StyleAligned,能够在生成的图像集上实现consistent style interpretation的方法。可以应用于任何基于注意力的文本到图像扩散模型上,在扩散过程中通过从每个生成的图像到batch中的第一个图像进行最小的attention sharing operations,可以得到一组具有一致风格的图像,此外利用扩散反演,可以根据参考风格图像生成具有一致风格的图像,无需优化或微调。

2.Related work

扩散过程中的cross/self-attention对生成图像的布局和内容起到了决定性作用。StyleAligned可以在没有优化阶段和没有依赖训练多个图像的情况下生成一致的图像集合。

3.Method overview

3.1 Preliminaries

T2I扩散模型采用了unet架构,由卷积层和Transformer注意力块组成,在这些注意力机制中,深层图像特征通过self-attention与彼此交互,并通过cross-attention与上下文文本embedding交互。

StyleAligned在self-attention上进行,通过attending to each other来更新深层特征。1.通过learned linear layers将特征投影为QKV;2.计算scaled dot-product attention;直观的看,每个图像特征都是通过V的加权来更新的,其中权重取决于Q和K之间的相关性,

3.2 StyleAligned image set generation

我们方法的目标是生成一组与输入的文本提示集{y1,y2,...yn}对齐并具有一致风格的图像级{L1,...Ln},在图3中可以看到Toy对象的数据集和上方的输入文本风格对齐。生成具有不同内容的风格对齐图像集的一种朴素的方法是在文本提示中使用相同的风格描述,但是在图2中已经展示共享风格描述来生成不同图像会导致不对齐的图像集。

StyleAligned的关键在于利用self-attention机制在各个生成的图像之间进行通信,这是通过在生成图像之间sharing attention layers来实现的。

QKV分别为从集合Li的深层特征投影中得到的query,key和value,full attention sharing可能会影响生成图的质量,会导致图像之间的内容泄露,例如图5所示,图像集中的独角兽染上了恐龙身上的绿色颜料。并且full attention sharing还导致了更少样式的集合。

为了限制内容泄露并允许多样性的集合,我们将注意力仅共享给生成集中的一张图片,通常是batch中的第一张,也就是说,target图像特征仅关注自身以及集合中的一张reference图像的特征,为了实现平衡的reference注意力,使用了AdaIN来对目标的Q和K进行规范化。

4.Evaluations and experiements

在sdxl上应用attention sharing,对模型70层self-attention。单个A100生成四张图需要29s。

相关推荐
Elastic 中国社区官方博客9 分钟前
使用 A2A 协议和 MCP 在 Elasticsearch 中创建一个 LLM agent 新闻室:第二部分
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
知识浅谈11 分钟前
我用Gemini3pro 造了个手控全息太阳系
人工智能
孤廖13 分钟前
终极薅羊毛指南:CLI工具免费调用MiniMax-M2/GLM-4.6/Kimi-K2-Thinking全流程
人工智能·经验分享·chatgpt·ai作画·云计算·无人机·文心一言
aneasystone本尊14 分钟前
学习 LiteLLM 的日志系统
人工智能
秋邱19 分钟前
价值升维!公益赋能 + 绿色技术 + 终身学习,构建可持续教育 AI 生态
网络·数据库·人工智能·redis·python·学习·docker
Mintopia21 分钟前
🎭 小众语言 AIGC:当 Web 端的低资源语言遇上“穷得只剩文化”的生成挑战
人工智能·aigc·全栈
安达发公司23 分钟前
安达发|告别手工排产!车间排产软件成为中央厨房的“最强大脑”
大数据·人工智能·aps高级排程·aps排程软件·安达发aps·车间排产软件
公众号-架构师汤师爷23 分钟前
n8n工作流实战:从0到1打造公众号热点选题一键采集智能体(万字图文)
人工智能·agent·智能体·n8n
CoovallyAIHub37 分钟前
抛弃LLM!MIT用纯视觉方法破解ARC难题,性能接近人类水平
深度学习·算法·计算机视觉
Baihai_IDP1 小时前
剖析大模型产生幻觉的三大根源
人工智能·面试·llm