研究生学术报告预告登记(开题、中期、答辩)

       为加强研究生学术交流活动,推进学术创新,特开通“研究生学术报告预告区”。我校研究生和教师可以在预告区及时发布和了解有关研究生学术报告的信息,届时参加。也可就某学术报告展开专题讨论与交流。

报告人: 严江涛
学号: 2117234093
学院: 电气与自动化工程学院
报告类型: 第一次学术报告
日期: 2019年06月6日
时间: 09:30
地点: 26教学楼D座第三会议室
导师: 冀中
题目: Generative Adversarial Networks
内容提要:

GAN网络实际上包含了2个网络,一个是生成网络(Generator),另一个是判别网络(Discriminator)。但是个人不成熟的理解就是GAN的核心目的其实还是在于它的生成器G,而至于为什么存在判别器D,主要是为了引入对抗训练,通过对抗训练的方式让生成器能够生成高质量的图片。在GAN之前也有很多比较经典的生成网络,比如自编码器AE,去噪自编码器DAE,变分自编码器VAE等等,都可以用来生成图片。那么GAN与它们有什么不同?主要区别还是在于生成网络的学习方式不同,AE,DAE只是单纯的从单个样例中学习,目标是重构出输入样例,说白了网络的输出就是尽可能重构出网络的输入,这样其实并不能说数据生成,充其量也就是数据复原罢了,于是更高级的VAE(变分自编码器)就出现了,VAE的思想不是去学习每个样例的特征,而是去学习一个数据集的分布,如果学习到了这个分布,那么我任意取出分布中的一个点,将这个点通过解码器部分,就能得到一个符合原数据分布,而且与原数据集中的数据不同的新数据。在这个过程中,往往假设数据集符合正太分布,编码器中有2个并行的全连接层,一个代表数据集的均值,另一个代表数据集的方差,因为前面是假设数据集符合一个正态分布,那么怎么保证这个假设成立?那么就用KL散度去度量学习到的数据集的正太分布和标准正态分布之间的差异性,去优化这个差异性,使得学习到的数据集的分布越来越趋近与正态分布。

图片:
登记人: 严江涛
登记时间: 2019年06月10日 星期一 16:01