机器学习(李宏毅)——GAN

一、前言

本文章作为学习2023年《李宏毅机器学习课程》的笔记,感谢台湾大学李宏毅教授的课程,respect!!!

不得不说GAN真是博大精深!

二、大纲

  • GAN问世
  • 基本思想
  • 原理剖析
  • Tips of GAN
  • GAN的应用
  • Cycle GAN
  • Evaluation of GAN

三、GAN问世

2014年Goodfellow 等人在《Generative Adversarial Networks》论文中首次提出了 GAN,随后各种各样的GAN百花齐放和发展,整个GAN的大家族网站:https://github.com/hindupuravinash/the-gan-zoo。

四、基本思想

GAN由两部分组成:Generator + Discriminator,简称为G和D。

  • Generator (生成器)
  • Discriminator(判别器)

精髓:G要想办法骗过D,D则是尽量挑出G假的内容,拟人化说法就是"对抗"。
举个例子:

G是屌丝,D是白富美,D心里择偶是有一杆称就是找个高富帅G',下面就是屌丝伪装成高富帅的故事了:

第一次约会:G搞了个发型去见D,D说你衣品真差,黄了;

第二次约会:G买了套名牌西装去见D,D说你的车怎么是个共享自行车,黄了;

第三次约会:G租了一辆保驰捷911去见D,当然还搞了发型、穿了名牌西装,并说其实我一直都是高富帅,只不过家里在考验我的继承能力而已,并送出A货包包,D信了,于是两个人就在一起了。

从上面的例子看出,D每次都基于G的表现冒出一个标准,而G每次都按照D的标准重新纠正自己,反复进行下去,如果一方停下来,这场约会("对抗")也进行不下去了。

回归到图像生成这件事情上来:

具体步骤如下:

  • step1:固定G,得到输出的image(第一次都是噪点),输送给D,D根据看过的真实图片和G的假照片,训练出标准。D就像是分类器,要区分出来自G的data和real data。
  • step2:有了标准D后,接着将其固定,反过来更新G,使得G输出的image送入D,D越难区分出来越好。

    反复上述步骤1和2进行下去,以上就是GAN的基本思想和步骤,总体的流程图如下:

五、原理剖析

  • Generator
    Generator分为两种:
    1、conditional (有额外条件的输入),有额外的x资讯。

2、unconditional(没有额外条件的输入),没有额外的x作为输入。


Generator原理剖析:

1、先看G的左边:有个Normal Distribution,是个简单的正态分布(当然也可以是其他易表达的distribution),G从这个分布中抽取样本向量。

其实Normal Distribution可以理解为就是一个初始化的简单空间,还可以输入额外的条件x进行限制。

2、再看G的右边:右边就是转换后复杂的distribution,要和real data的分布越接近越好。

那如何计算两个分布的距离呢?

常见的列举以下两种:

  • JS divergence
  • KL divergence

当然还有很多方法,我们姑且称之为divergence。

因此,我们G的目标就是要找到一组参数,使得divergence最小。

于是乎,目标函数写作:

那Divergence如何计算呢,实做中很难算,比较复杂,这也是GAN遇到的难题。

这里先怀揣的着这个问题先,继续往下看下Discriminator。

  • Discriminator

Discriminator 判别器的工作原理很直觉,就是看到PG给低分,看到Pdata给高分,合起来的分数越高越好,这就是它的目标。

于是可以写作:

说明:V目标函数要最大化,其和两个参数有关,就是G和D。

V(D,G)长啥样呢?

这里直接给出公式,有兴趣的可查阅资料进行推导理解。

公式转换

巧了,发现JS divergence和max V(D,G)是相关的。

于是乎:

回答了Generator中Divergence怎么算的问题,就是统一换到V的表达方式,V的表达式又已经有了,就可以实做了。

小结:

至此,GAN的基本思想、操作过程、公式都说完了,比较难理解的应该就是公式部分,需要动手推一推。

六、Tips of GAN

JS divergence并非是合适的衡量指标,为啥呢?

因为,PG和Pdata的Distribution都是一个局部的分布,无法诠释真正的分布是长啥样,也有可能PG和Pdata重叠的部分只是冰山一角而已,而JS Divergence只要是不重叠得到的输出值就是log2,这并不合理。

从上图,显然两个分布已经是慢慢接近了,但只要不重叠就一直输出是log2。

所以,有人就提出了Wasserstein distance方法。

Wasserstein distance

Wasserstein distance 来自于WGAN,其精髓思想就是把P分布推到Q分布的距离算出来。

但是,推过去的方法有很多种,所以这里采用穷举并取最小的d作为Wasserstein Distance。

这样更好看出Distance的变化。

那如何计算Wasserstein Distance呢?这里直接给出公式:

足够平滑这件事情,实际上是定范围,让参数介于(-C,C)区间,超过就clip,还有一种Improve WGAN,提出Gradient Penalty,连接两个概率分布,算斜率,要接近于1。

比较好的方法是Spectrial Normal。

七、GAN的应用

Conditional Generation

  • 文生图

    输入:需要成对的文、图资料,还要有正样本和负样本效果才会比较好,正样本包括文、图匹配,负样本包括文不配、图清晰和文不配、图噪点情况。

  • 图生图

    输入:同样需要成对的图、图。

    supervised + GAN 效果比较好,为什么呢?GAN富想象力,常生出意料外部分,supervised比较刻板,能把GAN拉回来。

  • 音生图

    声音生成图像同样可以运作,x的条件输入换成声音即可。

  • Talking Head Generation

    输入一张图片,生成gif图,这也是很牛的技术。

八、Cycle GAN

GAN的变种,可用于图片风格的转换。

基本思想就是,当没有成对的训练资料时候,加上一个还原的过程,如下图将真实世界人脸转为卡通风格,并且期望通过另外一个G能够将卡通世界图片还原至真实世界人脸图,这样的做法目的是为了让卡通风格像输出真实世界人脸图。

D则是树立了卡通风格的标准。

同样,还可以应用在文字风格转换。

九、Evaluation of GAN

那如何评估GAN生成的图片的好坏呢?

一种办法是使用图片分类器进行评估,即输入一张图片,然后看这个图片分类器识别出多少个类别,如果类别越集中,那说明生成的图片的质量越好,如下图:

所以,整体上GAN生成的图片好不好,我们会从两方面进行衡量,即:

  • 1、高质量(越像越好);

  • 2、多样性

    那怎么评估多样性呢?

    就是看各个类别的和越平均,多样性越高。

    实际过程可能会遇到:

  • Mode Collapse

    G产生的data老是集中在某一张,重复地出现,抓到D的盲点硬打一发。

  • Mode dropping

    G产生的data多样性不够,老是集中在某一些,但是下次生成的也只是在此基础上稍加改变(比如颜色)

相关推荐
boooo_hhh1 小时前
深度学习笔记16-VGG-16算法-Pytorch实现人脸识别
pytorch·深度学习·机器学习
AnnyYoung1 小时前
华为云deepseek大模型平台:deepseek满血版
人工智能·ai·华为云
INDEMIND2 小时前
INDEMIND:AI视觉赋能服务机器人,“零”碰撞避障技术实现全天候安全
人工智能·视觉导航·服务机器人·商用机器人
慕容木木2 小时前
【全网最全教程】使用最强DeepSeekR1+联网的火山引擎,没有生成长度限制,DeepSeek本体的替代品,可本地部署+知识库,注册即可有750w的token使用
人工智能·火山引擎·deepseek·deepseek r1
南 阳2 小时前
百度搜索全面接入DeepSeek-R1满血版:AI与搜索的全新融合
人工智能·chatgpt
企鹅侠客2 小时前
开源免费文档翻译工具 可支持pdf、word、excel、ppt
人工智能·pdf·word·excel·自动翻译
冰淇淋百宝箱3 小时前
AI 安全时代:SDL与大模型结合的“王炸组合”——技术落地与实战指南
人工智能·安全
Elastic 中国社区官方博客3 小时前
Elasticsearch Open Inference API 增加了对 Jina AI 嵌入和 Rerank 模型的支持
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索·jina
AWS官方合作商4 小时前
Amazon Lex:AI对话引擎重构企业服务新范式
人工智能·ai·机器人·aws
workflower4 小时前
Prompt Engineering的重要性
大数据·人工智能·设计模式·prompt·软件工程·需求分析·ai编程