文献综述(或调研报告):
Ian Goodfellow在2014年首次提出GAN(Generative Adversial Net),GAN的基本思想是两个网络的博弈, 一个生成器网络G和一个判别器网络D。生成器G的目标是学习到输入数据的分布从而生成非常真实的图像, 而判别器D的目标是鉴别真实数据和生成器G生成的数据。首先对于固定的G生成的样本和真实数据训练D,然后用固定的D训练G,如此往复最终生成器能够估测样本分布。原始GAN对于数据先验要求非常低,非常擅长解决无监督问题。但是GAN模拟生成的数据比较单一,容易出现模式丢失;不适合处理离散形式的数据,比如文本;训练过程中鉴别器和生成器的不同步可能导致模型崩塌的现象[1]。训练不稳定,训练崩塌的现象在[5]中得到解决。
GAN有很多衍生算法:条件GAN(CGAN)[2]作者通过在数据生成过程中施加条件约束,从而能够达到生成给定标签的数据,实现对生成器的控制,这样使得模型可以快速收敛;深度卷积GAN(DCGAN)[3],作者将卷积神经网络(CNN)引入到生成器和判别器中,使得生成模型可以生成质量更高的图片;半监督GAN(SSGAN)[4]:作者利用生成器生成样本的能力来提升图像分类任务的性能,从而提升判别器的泛化能力。判别器网络同时具备分类器功能;WGAN[5]:作者对于GAN的损失函数进行改进,在理论上给出了GAN训练不稳定的原因,即JS散度不适合衡量具有不相交部分的分布之间的距离,解决了模式崩塌的现象,增加了生成样本的多样性,此外对GAN的训练提出了一个指标,指标越小表示GAN训练的越差;WGAN-GP[6]是对WGAN的改进,作者使用梯度惩罚的方式解决了训练梯度消失梯度爆炸的问题,比标准WGAN拥有更快的收敛速度并能生成质量更高的生成样本;循环GAN(Cycle-GAN)[7]:作者使用循环一致损失的方法将数据从一个领域映射到另一个领域;info-GAN[8]:作者在无监督情况下对有意义图像进行编码,当数据集不太复杂,数据集缺少标签信息时,可以使用这种方法了解图像特征的意义并控制图像;BEGAN[10]:作者通过一个自动编码器作为判别器来生成一个新的损失函数。真实的距离由Wasserstein距离和重构真实图像与生成图像的损失衍生而来,它允许在每一步以对抗的方式同时训练两个网络。
GAN在很多领域都有应用:由于本身是一种生成模型,所以大多用于数据生成,常用的有DCGAN,WGAN,BEGAN[3,5,10],其中ProGAN[9]提出一种渐进增大的方式训练GAN和精心处理的数据集CeleA-HQ生成了高分辨率的高清图像,效果令人震惊;GAN擅长在无监督领域工作,在无监督,半监督领域都有广泛的应用[4, 11];除此之外,GAN在多分类任务中将判别器当作分类器,进行多分类,生成器作为辅助为其提供样本增加分类器训练[4]。;
GAN在图像风格迁移,图像降噪修复,图像超分辨率等图像翻译任务中有出色的表现,如pix-2-pix GAN,CycleGAN[12,7],跨域转换的DiscoGAN[14],[15]提出了一种基于投影的方法将条件信息放入判别器,和CGAN对于条件信息的处理位置处理方式不同,但是在ImageNett的class conditional图像生成质量比当前最优结果显著提高,并生成了超分辨率的高清图像;GAN也可以利用文本描述来构建逼真的图像,例如StackGAN[13]。
值得一提的是,变分型自动编码器(VAEs)是一种具有表达能力的潜在变量模型,可用于从训练数据中学习复杂的概率分布。[16]用一种新的观点建立了VAEs和GAN之间的一种规则联系,给出了将二者之间的改进技术进行转移的可行思路。[17] 对 MMGAN、NSGAN、WGAN、WGAN-GP、LSGAN、DRAGAN、BEGAN 等近期出现的优秀 GAN 模型进行了客观的性能比较,发现这些模型并没有像它们声称的那样优于原始 GAN。这项研究表明,过去一年多的很多论文只是观察抽样误差,而不是真正的改进。
参考文献:
- Ian J. Goodfellow, Jean Pouget-Abadie , Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair , Aaron Courville, Yoshua Bengio, Generative Adversarial Nets, NIPS, 2014.
- Mirza M, Osindero S.Conditional Generative Adversarial Nets[J].Computer Science, 2014:2672-2680.
- Radford A, Metz L, Chintala S.Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks[J].Computer Science, 2015
- Salimans T , Goodfellow I , Zaremba W , et al. Improved Techniques for Training GANs[J]. 2016.
- Arjovsky M , Chintala S , Bottou, Leacute;on. Wasserstein GAN[J]. 2017.
- Gulrajani I , Ahmed F , Arjovsky M , et al. Improved Training of Wasserstein GANs[J]. 2017.
- Zhu J Y , Park T , Isola P , et al. Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks[J]. 2017.
- Chen X , Duan Y , Houthooft R , et al. InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets[J]. 2016.
- Karras T , Aila T , Laine S , et al. Progressive Growing of GANs for Improved Quality, Stability, and Variation[J]. 2017.
- Berthelot D , Schumm T , Metz L . BEGAN: Boundary Equilibrium Generative Adversarial Networks[J]. 2017.
- Saatchi Y , Wilson A G . Bayesian GAN[J]. 2017.
- Isola P , Zhu J Y , Zhou T , et al. Image-to-Image Translation with Conditional Adversarial Networks[J]. 2016.
- Zhang H , Xu T , Li H . StackGAN: Text to Photo-Realistic Image Synthesis with Stacked Generative Adversarial Networks[C]// 2017 IEEE International Conference on Computer Vision (ICCV). IEEE Computer Society, 2017.
- Kim T . Learning to Discover Cross-Domain Relations with Generative Adversarial Networks[J]. 한국지능정보시스템학회 학술대회논문집, 2017.
- Miyato T , Koyama M . cGANs with Projection Discriminator[J]. 2018.
- Z. Hu, Z. Yang, R. Salakhutdinov, and E. P. Xing. On unifying deep generative models. In ICLR, 2018.
- Lucic M , Kurach K , Michalski M , et al. Are GANs Created Equal? A Large-Scale Study[J]. 2017.
资料编号:[180440]
