[大语言模型] LINFUSION:1个GPU,1分钟,16K图像

  1. 文章

2409.02097 (arxiv.org)https://arxiv.org/pdf/2409.02097

LINFUSION: 1 GPU, 1 MINUTE, 16K IMAGE

摘要

本文介绍了一种新型的扩散模型LINFUSION,它能够在保持高分辨率图像生成性能的同时显著降低时间和内存复杂度。该模型采用了基于Transformer的UNet进行去噪,并且通过引入线性注意力机制替代了传统的自注意力操作,以解决高分辨率视觉内容生成中的挑战。研究者们从最近引入的具有线性复杂度的模型中获得灵感,提出了一种新的线性注意力范式,该范式可作为多种流行的线性令牌混合器的低秩近似。通过从预训练的StableDiffusion (SD)模型中初始化并进行知识蒸馏,LINFUSION在适度训练后即可达到或超过原始SD的性能,同时显著减少时间和内存复杂度。实验表明,LINFUSION能够生成高达16K分辨率的高分辨率图像,并且与预训练的SD组件(如ControlNet和IP-Adapter)高度兼容。

创新点

  1. 提出了一种新的线性注意力机制,作为传统自注意力方法的替代,以解决高分辨率图像生成中的时间和内存复杂度问题。
  2. 引入了注意力归一化和非因果推理两个关键特性,以增强高分辨率视觉生成性能。
  3. 通过知识蒸馏的方式,从预训练的StableDiffusion模型中初始化并优化LINFUSION,减少了训练成本并提高了与现有模型的兼容性。

算法模型

LINFUSION模型基于Stable Diffusion (SD),通过以下关键技术构建:

  • 线性注意力机制 :替代SD中的自注意力层,以线性复杂度处理空间令牌。

  • 注意力归一化 :确保不同输入规模下的总影响保持一致。

  • 非因果推理 :允许模型同时访问所有噪声空间令牌并基于整个输入生成去噪令牌。

  • 知识蒸馏:从预训练的SD模型中转移知识,以优化LINFUSION模型。

实验效果

  • 生成速度和内存消耗:在8步去噪和单GPU情况下,与原始SD-v1.5相比,LINFUSION在不同分辨率下的生成速度更快,内存消耗更低。
  • 跨分辨率生成性能:在SD-v1.5、SD-v2.1和SD-XL上的实验表明,LINFUSION在零样本跨分辨率生成性能上令人满意,能够生成高达16K分辨率的图像。
  • 与预训练组件的兼容性:LINFUSION与SD的现有组件(如ControlNet和IP-Adapter)高度兼容,无需额外训练成本。
相关推荐
kishu_iOS&AI3 分钟前
机器学习 —— 线性回归(实例)
人工智能·python·机器学习·线性回归
天天进步201511 分钟前
[架构篇] 解构项目蓝图:Toonflow 的模块化设计与 AI 管道流转
人工智能·架构
龙文浩_11 分钟前
AI中NLP的深入浅出注意力机制 Seq2Seq 模型
人工智能·pytorch·深度学习·神经网络·自然语言处理
小饕11 分钟前
RAG 学习之-向量数据库与 FAISS 索引完全指南:从原理到选型实战
人工智能·rag·大模型应用
北京耐用通信12 分钟前
CC-Link IE转Modbus TCP集成实战:耐达讯自动化网关在五星级酒店节能改造中的应用
人工智能·物联网·网络协议·自动化·信息与通信
小超同学你好12 分钟前
面向 LLM 的程序设计 9:系统提示中的「能力边界」——减少越权与幻觉调用
人工智能·深度学习·语言模型
黑金IT13 分钟前
从“抽卡”到“工业化”:多模态 Harness 如何重塑 AI 内容生产的反馈闭环
人工智能·prompt·harness工程
笨笨饿15 分钟前
# 52_浅谈为什么工程基本进入复数域?
linux·服务器·c语言·数据结构·人工智能·算法·学习方法
dtsola18 分钟前
小遥搜索生态新成员:一键导出钉钉文档,实现本地AI搜索
人工智能·ai编程·知识库·ai创业·独立开发者·个人开发者·一人公司
星爷AG I19 分钟前
18-9 预测心智(AGI基础理论)
人工智能·agi