Llama也能做图像生成?文生图模型已开源

导读

基于next-token prediction的图像生成方法首次在ImageNet benchmark超越了LDM, DiT等扩散模型,证明了最原始的自回归模型架构同样可以实现极具竞争力的图像生成性能。

Llama也能做图像生成?文生图模型已开源 香港大学、字节跳动提出了基于自回归模型LLama的图像生成模型LlamaGen。这是基于next-token prediction的图像生成方法首次在ImageNet benchmark超越了LDM, DiT等扩散模型,证明了最原始的自回归模型架构同样可以实现极具竞争力的图像生成性能。

图1:LlamaGen生成图像示例。第一行是class-conditional图像生成,第二行是text-conditional图像生成(文生图)。

文章: Autoregressive Model Beats Diffusion: Llama for Scalable Image Generation

项目主页: https://peizesun.github.io/llamagen/

开源代码: https://github.com/FoundationVision/LlamaGen

开源模型: https://huggingface.co/FoundationVision/LlamaGen

体验网站: https://huggingface.co/spaces/FoundationVision/LlamaGen

1. 研究动机

多模态大模型的技术路线: 基于next-token prediction的自回归模型主导了大语言模型,那么多模态大模型的技术路线往LLM的技术路线靠是一种非常自然的选择。

我们从ViT中学到了什么? ViT在2020年提出后,CV领域有相当长一段时间内致力于给ViT加inductive bias,例如,多尺度策略,以期实现更优秀的性能。这个过程诞生了许多优秀的工作。但是站在2024年往回看,会发现最初的ViT架构也能够达到相似的性能。那么,同样的故事是否会发生在多模态领域?

自回归模型vs扩散模型: 开源社区对自回归模型做图像生成的印象大多停留在2020年的VQ-GAN的ImageNet benchmark FID15左右。然而,早在2021年的ViT-VQGAN已经达到了FID 3.0左右的性能,DALL-E v1,Parti等更是在文生图领域展现了巨大的潜力。不过这些工作都没有闭源,而同时期的扩散模型在Stable Diffusion社区的带领下一骑绝尘。

于是,研究团队致力于提出开源版的基于自回归模型的图像生成 !!!

2. Method

回顾现有的先进的图像生成模型,我们总结出其成功的三点关键设计:

(1)图像压缩/量化器(image compressors/tokenizers)

(2)可scale up的图像生成模型(scalable image generation models)

(3)高质量的训练数据(high-quality training data)

2.1 重训 image tokenizer

我们采用与VQ-GAN同样的CNN架构将连续的图像转化成离散的token。相比2020年的VQ-GAN,我们对image tokenizer有了更多的认知:一个优秀的tokenizer需要更大的codebook size,更低的codebook vector dimension,同时,更好的图像重建需要更多的token数量。

2.2 基于Llama架构的图像生成模型

我们的模型架构主要基于Llama语言模型,包括使用RMSNorm的pre-normalization、SwiGLU 和 RoPE。我们尽可能的保持与Llama语言模型一模一样的架构,尽管图像生成领域一些常用的技术可能进一步提高性能,如AdaLN。

在Class-conditional和Text-conditional(文生图)图像生成模型中,我们使用最简单的实现:class或text embedding直接作为start token,后续的image token应用next-token prediction范式产生。

2.3 多阶段的文生图模型训练流程

在第一阶段,模型在LAION-COCO的50M子集上进行训练,图像分辨率为 256×256。LAION-COCO原始数据集有 600M图文对。我们通过有效的图像 URL、美学分数、水印分数、CLIP图文相似度分数和图像大小来筛选这些图像。

在第二阶段,模型在10M的内部高美学质量图像上进行微调,图像分辨率为 512×512。这些美学图像的文本描述由LLaVa产生。

2.4 LLM部署框架

基于原生自回归模型架构的图像生成模型可以无缝采用现有的LLM部署框架,例如vLLM。这也是统一模型架构的一大优势。

3. 实验

3.1 Image tokenizers (图像量化器)

我们重新训练的image tokenizer在ImageNet和COCO上优于以前的tokenizers,包括VQGAN,ViT-VQGAN, MaskGIT。重要的是,基于离散表征的tokenizer与基于连续表征的VAE性能持平,例如在扩散模型中被广泛使用的SD VAE。这表明图像量化的离散表征不再是图像重建的一大瓶颈。

3.2 Class-conditional image generation

在ImageNet benchmark中,LlamaGen在 FID、IS、Precision和Recall等指标上都表现出了极强的竞争力,其中,LlamaGen-3B 模型优于广为流行的扩散模型 LDM和DiT。这表明最朴素的自回归模型架构有能力作为先进图像生成系统的基础模型。同时,与之前的自回归模型相比,我们的模型在各个参数量级上均优于以前的模型。这得益于更好的image tokenizer和Llama架构更好的扩展性。

3.3 Text-conditional image generation (文生图)

经过第一阶段的训练,模型基本拥有了图文对齐的能力,但其生成图像的视觉质量有待提高。第二阶段的训练显著提高了生成图像的视觉质量。我们认为这种提高来自两个方面:(1)第二阶段的训练使用了高质量的美学图像(2)第一阶段的图像分辨率是256x256,第二阶段是512x512,更大的图像分辨率会带来更好的视觉效果。

当输入更长的文本时,LlamaGen也可以生成兼具图文对齐与视觉质量的图像。

3.4 部署

基于vLLM部署框架,LlamaGen实现了326% - 414%的加速。

4. 结语

如果以扩散模型的发展路线做类似,目前的LlamaGen只是Stable Diffusion v1阶段,改进方向包括SDXL(更大的分辨率,更多的aspect ratio),ControlNet(更高的可控性),Sora(视频生成)。

从多模态大模型的视角看,自回归模型分别实现理解任务和生成任务都被证明了可行性,下一步就是在同一个模型中联合训练。这需要更多的图文数据和更大的计算资源才能走得通,也可能由于文本数据和图像数据的内在distribution不同这条路走到后面不太行得通。

大模型时代,一切皆有可能!

如何学习大模型

现在社会上大模型越来越普及了,已经有很多人都想往这里面扎,但是却找不到适合的方法去学习。

作为一名资深码农,初入大模型时也吃了很多亏,踩了无数坑。现在我想把我的经验和知识分享给你们,帮助你们学习AI大模型,能够解决你们学习中的困难。

我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。

一、AGI大模型系统学习路线

很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。

二、AI大模型视频教程

三、AI大模型各大学习书籍

四、AI大模型各大场景实战案例

五、结束语

学习AI大模型是当前科技发展的趋势,它不仅能够为我们提供更多的机会和挑战,还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型,我们可以深入了解深度学习、神经网络等核心概念,并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时,掌握AI大模型还能够为我们的职业发展增添竞争力,成为未来技术领域的领导者。

再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。

因此,学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。

相关推荐
NAGNIP7 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab8 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab8 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP12 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年12 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼12 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS12 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
warm3snow13 小时前
Claude Code 黑客马拉松:5 个获奖项目,没有一个是"纯码农"做的
ai·大模型·llm·agent·skill·mcp
天翼云开发者社区14 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈14 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能