AE, VAE和VQ-VAE有什么区别?

写在前面

AE, VAE, VQ-VAE是一系列的工作,其中VAE更是构成了整个AIGC的重要基石,那么他们之间有什么区别呢?

1. AE

AE(AutoEncoder)是一种自编码器,能够将一个图片压缩成一个较短的向量。其结构如下所示。

它有一对编码器和解码器, 编码器负责将图片压缩到一个较短的向量,而解码器负责将较短的向量恢复成图片。在训练的时候,两者做loss。但是这样的话会有一个问题,即Decoder只认识Encoder的向量,一旦我们扔掉Encoder,那么Decoder将会变得毫无用处。

2. VAE

如果我们能够限制住AE的编码空间,使其能够符合某个数学分布,比如标准正态分布,那么我们就可以在标准正态分布中随机采样给Decoder,那么就能够生成随机的图了。VAE就是来干这事儿的网络。网络结构如下:

3. VQ-VAE

但是VAE生成图的质量普遍不高,有人认为原因是因为VAE把图片编码成了连续的变量,但是我们在描述物体时,转化为离散变量会更为自然。比如我们描述一个人,不会说胖0.6, 性别是0.5, 年龄是0.3。而是说男或女,年龄20。

但是把图像编码成离散化之后,就又出现了两个新的问题。

  1. 神经网络擅长处理连续的数值,而不擅长处理离散数据。解决方法是借鉴nlp中处理离散单词的方法,将连续数据处理成一个独一无二的连续向量上
  1. 另外一个问题是,离散空间不太好采样,因此不能像VAE那样进行随机图像生成。

VQVAE的作者的做法是,通过PixelCNN随机在数学分布中采样,生成小图像,再用VQGAN的decoder翻译小图像成大图像。

具体做法如下:

  1. 训练VQGAN的编码器和解码器,编码器负责将图像压缩到小图像,解码器负责将小图像还原成大图
  2. 训练PixelCNN, 让它拥有能够从随机分布中采样成小图像的能力
  3. 扔掉VQGAN的编码器,接上PixelCNN, 使得VQVAE拥有从随机分布中采样图像的能力

那么VQGAN怎么生成离散向量的呢?

作者设计了一个embedding space

为了能够让编码器的输入向量、embedding space, 以及解码器的输入张量embedding关联起来,作者做了如下方案:

假设codebook已经训练完毕,对于编码器的每个输入z(x), 通过最近邻找到embedding中与之最相近的向量z(q), 然后用z(q)替换z(x)。

相关推荐
一只爱撸猫的程序猿3 小时前
使用Spring AI配合MCP(Model Context Protocol)构建一个"智能代码审查助手"
spring boot·aigc·ai编程
墨风如雪4 小时前
不再是指令的奴隶:智元Genie,让机器人拥有了想象力
aigc
迈火4 小时前
ComfyUI-3D-Pack:3D创作的AI神器
人工智能·gpt·3d·ai·stable diffusion·aigc·midjourney
用户5191495848457 小时前
HITCON CTF 2018 - 单行PHP挑战:会话上传与流过滤器链的极致利用
人工智能·aigc
胡耀超7 小时前
DataOceanAI Dolphin(ffmpeg音频转化教程) 多语言(中国方言)语音识别系统部署与应用指南
python·深度学习·ffmpeg·音视频·语音识别·多模态·asr
HUIMU_8 小时前
DAY12&DAY13-新世纪DL(Deeplearning/深度学习)战士:破(改善神经网络)1
人工智能·深度学习
mit6.8249 小时前
[1Prompt1Story] 注意力机制增强 IPCA | 去噪神经网络 UNet | U型架构分步去噪
人工智能·深度学习·神经网络
苍何9 小时前
腾讯发布杀手级AI开发工具,可一键使用Claude Code(附一手使用教程)
aigc
Coovally AI模型快速验证9 小时前
YOLO、DarkNet和深度学习如何让自动驾驶看得清?
深度学习·算法·yolo·cnn·自动驾驶·transformer·无人机
科大饭桶10 小时前
昇腾AI自学Day2-- 深度学习基础工具与数学
人工智能·pytorch·python·深度学习·numpy