机器学习(李宏毅)——GAN

一、前言

本文章作为学习2023年《李宏毅机器学习课程》的笔记,感谢台湾大学李宏毅教授的课程,respect!!!

不得不说GAN真是博大精深!

二、大纲

  • GAN问世
  • 基本思想
  • 原理剖析
  • Tips of GAN
  • GAN的应用
  • Cycle GAN
  • Evaluation of GAN

三、GAN问世

2014年Goodfellow 等人在《Generative Adversarial Networks》论文中首次提出了 GAN,随后各种各样的GAN百花齐放和发展,整个GAN的大家族网站:https://github.com/hindupuravinash/the-gan-zoo。

四、基本思想

GAN由两部分组成:Generator + Discriminator,简称为G和D。

  • Generator (生成器)
  • Discriminator(判别器)

精髓:G要想办法骗过D,D则是尽量挑出G假的内容,拟人化说法就是"对抗"。
举个例子:

G是屌丝,D是白富美,D心里择偶是有一杆称就是找个高富帅G',下面就是屌丝伪装成高富帅的故事了:

第一次约会:G搞了个发型去见D,D说你衣品真差,黄了;

第二次约会:G买了套名牌西装去见D,D说你的车怎么是个共享自行车,黄了;

第三次约会:G租了一辆保驰捷911去见D,当然还搞了发型、穿了名牌西装,并说其实我一直都是高富帅,只不过家里在考验我的继承能力而已,并送出A货包包,D信了,于是两个人就在一起了。

从上面的例子看出,D每次都基于G的表现冒出一个标准,而G每次都按照D的标准重新纠正自己,反复进行下去,如果一方停下来,这场约会("对抗")也进行不下去了。

回归到图像生成这件事情上来:

具体步骤如下:

  • step1:固定G,得到输出的image(第一次都是噪点),输送给D,D根据看过的真实图片和G的假照片,训练出标准。D就像是分类器,要区分出来自G的data和real data。
  • step2:有了标准D后,接着将其固定,反过来更新G,使得G输出的image送入D,D越难区分出来越好。

    反复上述步骤1和2进行下去,以上就是GAN的基本思想和步骤,总体的流程图如下:

五、原理剖析

  • Generator
    Generator分为两种:
    1、conditional (有额外条件的输入),有额外的x资讯。

2、unconditional(没有额外条件的输入),没有额外的x作为输入。


Generator原理剖析:

1、先看G的左边:有个Normal Distribution,是个简单的正态分布(当然也可以是其他易表达的distribution),G从这个分布中抽取样本向量。

其实Normal Distribution可以理解为就是一个初始化的简单空间,还可以输入额外的条件x进行限制。

2、再看G的右边:右边就是转换后复杂的distribution,要和real data的分布越接近越好。

那如何计算两个分布的距离呢?

常见的列举以下两种:

  • JS divergence
  • KL divergence

当然还有很多方法,我们姑且称之为divergence。

因此,我们G的目标就是要找到一组参数,使得divergence最小。

于是乎,目标函数写作:

那Divergence如何计算呢,实做中很难算,比较复杂,这也是GAN遇到的难题。

这里先怀揣的着这个问题先,继续往下看下Discriminator。

  • Discriminator

Discriminator 判别器的工作原理很直觉,就是看到PG给低分,看到Pdata给高分,合起来的分数越高越好,这就是它的目标。

于是可以写作:

说明:V目标函数要最大化,其和两个参数有关,就是G和D。

V(D,G)长啥样呢?

这里直接给出公式,有兴趣的可查阅资料进行推导理解。

公式转换

巧了,发现JS divergence和max V(D,G)是相关的。

于是乎:

回答了Generator中Divergence怎么算的问题,就是统一换到V的表达方式,V的表达式又已经有了,就可以实做了。

小结:

至此,GAN的基本思想、操作过程、公式都说完了,比较难理解的应该就是公式部分,需要动手推一推。

六、Tips of GAN

JS divergence并非是合适的衡量指标,为啥呢?

因为,PG和Pdata的Distribution都是一个局部的分布,无法诠释真正的分布是长啥样,也有可能PG和Pdata重叠的部分只是冰山一角而已,而JS Divergence只要是不重叠得到的输出值就是log2,这并不合理。

从上图,显然两个分布已经是慢慢接近了,但只要不重叠就一直输出是log2。

所以,有人就提出了Wasserstein distance方法。

Wasserstein distance

Wasserstein distance 来自于WGAN,其精髓思想就是把P分布推到Q分布的距离算出来。

但是,推过去的方法有很多种,所以这里采用穷举并取最小的d作为Wasserstein Distance。

这样更好看出Distance的变化。

那如何计算Wasserstein Distance呢?这里直接给出公式:

足够平滑这件事情,实际上是定范围,让参数介于(-C,C)区间,超过就clip,还有一种Improve WGAN,提出Gradient Penalty,连接两个概率分布,算斜率,要接近于1。

比较好的方法是Spectrial Normal。

七、GAN的应用

Conditional Generation

  • 文生图

    输入:需要成对的文、图资料,还要有正样本和负样本效果才会比较好,正样本包括文、图匹配,负样本包括文不配、图清晰和文不配、图噪点情况。

  • 图生图

    输入:同样需要成对的图、图。

    supervised + GAN 效果比较好,为什么呢?GAN富想象力,常生出意料外部分,supervised比较刻板,能把GAN拉回来。

  • 音生图

    声音生成图像同样可以运作,x的条件输入换成声音即可。

  • Talking Head Generation

    输入一张图片,生成gif图,这也是很牛的技术。

八、Cycle GAN

GAN的变种,可用于图片风格的转换。

基本思想就是,当没有成对的训练资料时候,加上一个还原的过程,如下图将真实世界人脸转为卡通风格,并且期望通过另外一个G能够将卡通世界图片还原至真实世界人脸图,这样的做法目的是为了让卡通风格像输出真实世界人脸图。

D则是树立了卡通风格的标准。

同样,还可以应用在文字风格转换。

九、Evaluation of GAN

那如何评估GAN生成的图片的好坏呢?

一种办法是使用图片分类器进行评估,即输入一张图片,然后看这个图片分类器识别出多少个类别,如果类别越集中,那说明生成的图片的质量越好,如下图:

所以,整体上GAN生成的图片好不好,我们会从两方面进行衡量,即:

  • 1、高质量(越像越好);

  • 2、多样性

    那怎么评估多样性呢?

    就是看各个类别的和越平均,多样性越高。

    实际过程可能会遇到:

  • Mode Collapse

    G产生的data老是集中在某一张,重复地出现,抓到D的盲点硬打一发。

  • Mode dropping

    G产生的data多样性不够,老是集中在某一些,但是下次生成的也只是在此基础上稍加改变(比如颜色)

相关推荐
大写-凌祁9 分钟前
论文阅读:HySCDG生成式数据处理流程
论文阅读·人工智能·笔记·python·机器学习
柯南二号20 分钟前
深入理解 Agent 与 LLM 的区别:从智能体到语言模型
人工智能·机器学习·llm·agent
珂朵莉MM21 分钟前
2021 RoboCom 世界机器人开发者大赛-高职组(初赛)解题报告 | 珂学家
java·开发语言·人工智能·算法·职场和发展·机器人
IT_陈寒36 分钟前
Element Plus 2.10.0 重磅发布!新增Splitter组件
前端·人工智能·后端
jndingxin37 分钟前
OpenCV CUDA模块图像处理------创建一个模板匹配(Template Matching)对象函数createTemplateMatching()
图像处理·人工智能·opencv
盛寒1 小时前
N元语言模型 —— 一文讲懂!!!
人工智能·语言模型·自然语言处理
weixin_177297220691 小时前
家政小程序开发——AI+IoT技术融合,打造“智慧家政”新物种
人工智能·物联网
Jay Kay1 小时前
ReLU 新生:从死亡困境到强势回归
人工智能·数据挖掘·回归
C137的本贾尼1 小时前
(每日一道算法题)二叉树剪枝
算法·机器学习·剪枝
Blossom.1182 小时前
使用Python和Flask构建简单的机器学习API
人工智能·python·深度学习·目标检测·机器学习·数据挖掘·flask